JP2022188060A - User interface for capturing and managing visual media - Google Patents

User interface for capturing and managing visual media Download PDF

Info

Publication number
JP2022188060A
JP2022188060A JP2022145387A JP2022145387A JP2022188060A JP 2022188060 A JP2022188060 A JP 2022188060A JP 2022145387 A JP2022145387 A JP 2022145387A JP 2022145387 A JP2022145387 A JP 2022145387A JP 2022188060 A JP2022188060 A JP 2022188060A
Authority
JP
Japan
Prior art keywords
cameras
displaying
representation
camera
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022145387A
Other languages
Japanese (ja)
Other versions
JP7467553B2 (en
Inventor
ベーキッシュ ジェイ マンザリ
J Manzari Behkish
リー エス ブロートン
S Broughton Lee
アロク デシュパンデ
Deshpande Alok
アラン シー ダイ
C Dye Alan
クレイグ エム フェデリギ
M Federighi Craig
ルーカス ロバート トム ガーリング
Robert Tom Girling Lukas
マーサ イー ハンキー
E Hankey Martha
ポール フベル
Hubel Paul
ニコラス ルピネッティ
Lupinetti Nicholas
ジョナサン マコーマック
MCCORMACK Jonathan
グラント ポール
Paul Grant
ダニエル トレント プレストン
Trent Preston Daniel
ザ サード ウィリアム エイ ソレンティーノ
A Sorrentino William Iii
ドス サントス アンドレ ソウザ
Souza Dos Santos Andre
ジェフリー エイ ブラスケット
A Brasket Jeffrey
ラスムス アール ジェンセン
R Jensen Rasmus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/583,020 external-priority patent/US10645294B1/en
Priority claimed from PCT/US2020/031643 external-priority patent/WO2020227386A2/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2022188060A publication Critical patent/JP2022188060A/en
Priority to JP2024060293A priority Critical patent/JP2024105236A/en
Application granted granted Critical
Publication of JP7467553B2 publication Critical patent/JP7467553B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44521Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
    • G06F9/44526Plug-ins; Add-ons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Stroboscope Apparatuses (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Solid-Sorbent Or Filter-Aiding Compositions (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method, an electronic device, and a storage medium for creating efficient human-machine interfaces for capturing, editing, automatically adjusting and managing media on an electronic device.
SOLUTION: A method includes detecting movement of an electronic device at a first time after initiating media capture, displaying a visual indication of a difference between the pose of the electronic device when media capture begins and the current pose, according to the determination that guidance criteria are met, including criteria that are met when the detected movement exceeds a movement threshold, and ceasing to display the visual indication upon determining that the guidance criteria are not met.
SELECTED DRAWING: Figure 40B
COPYRIGHT: (C)2023,JPO&INPIT

Description

関連出願の相互参照
本出願は、2019年5月6日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/844,110号と、2019年6月1日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/856,036号と、2019年9月9日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許仮出願第62/897,968号と、2019年9月25日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/583,020号と、2019年9月25日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/582,595号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,044号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,100号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/584,693号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/586,314号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題する米国特許出願第16/586,344号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970593号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970592号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970595号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970600号と、2019年9月26日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970601号と、2019年9月26日に出願されたデンマーク特許出願第PA201970603号と、2019年9月27日に出願され、「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」と題するデンマーク特許出願第PA201970605号と、に対する優先権を主張するものである。これらの出願の内容は、その全体が参照により本明細書に組み込まれる。
CROSS REFERENCE TO RELATED APPLICATIONS This application is filed May 6, 2019 and is subject to U.S. Provisional Patent Application Serial No. 62/844,110, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA" and June 1, 2019. No. 62/856,036, filed on Sept. 9, 2019, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA," filed at U.S. Provisional Patent Application No. 62/897,968, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA," filed September 25, 2019, and U.S. Patent Application No. 16/583,020, filed Sept. 25, 2019; U.S. patent application Ser. US Patent Application No. 16/584,044, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA," filed September 26, 2019; U.S. Patent Application No. 16/584,693, filed September 26, 2019 and entitled "USER INTERFACES FOR and U.S. Patent Application No. 16/586,344, filed September 27, 2019, entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA." and filed on September 26, 2019 , Danish patent application no. , Danish Patent Application No. PA201970595, filed on September 26, 2019 and entitled "USER INTERFACES FOR and Danish Patent Application No. PA201970601 entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA", filed on September 26, 2019. and Danish Patent Application No. PA201970605, filed September 27, 2019 and entitled "USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA". The contents of these applications are incorporated herein by reference in their entireties.

本開示は、概して、コンピュータユーザインタフェースに関し、より詳細には視覚メディアをキャプチャ及び管理する技術に関する。 TECHNICAL FIELD This disclosure relates generally to computer user interfaces, and more particularly to techniques for capturing and managing visual media.

スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。 Users of smart phones and other personal electronic devices capture, store, and edit media more frequently to keep their memories safe and to share with friends. Several existing technologies have allowed users to capture images or videos. A user can manage such media by, for example, capturing, storing, and editing the media.

しかしながら、電子デバイスを使用してメディアをキャプチャ及び管理するいくつかの技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押圧又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 However, some techniques for capturing and managing media using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time-consuming user interfaces that may involve multiple key presses or keystrokes. Existing techniques take longer than necessary, wasting user time and device energy. The latter problem is particularly acute in battery operated devices.

したがって、本技術は、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を任意に補完するか、又は置き換わる。そのような方法及びインタフェースは、ユーザにかかる認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。 Accordingly, the present technology provides electronic devices with faster, more efficient methods and interfaces for capturing and managing media. Such methods and interfaces optionally supplement or replace other methods for capturing and managing media. Such methods and interfaces reduce the cognitive burden on users and create more efficient human-machine interfaces. For battery-operated computing devices, such methods and interfaces conserve power and increase intervals between battery charges.

いくつかの例では、本技術は、ユーザが、時間効率及び入力効率が良い方法でキャプチャされたメディアを編集することを可能にし、それにより、デバイスが行う必要がある処理の量を低減することができる。いくつかの例では、本技術は、フレームレートを管理し、それにより、記憶空間を節約し、処理要件を低減する。 In some examples, the technology may allow users to edit captured media in a time- and input-efficient manner, thereby reducing the amount of processing the device needs to do. can be done. In some examples, the techniques manage frame rates, thereby saving storage space and reducing processing requirements.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via a display device, a camera user interface, the camera user interface including a camera display area including a representation of one or more cameras' fields of view and a camera control area including a plurality of control affordances. displaying a camera user interface comprising: a region; and a first control associated with a first predefined condition while the first predefined condition and the second predefined condition are not met. displaying a camera user interface without displaying an affordance and without displaying a second control affordance associated with a second predefined condition; without displaying the first control affordance; and detecting a change in the condition while displaying the camera user interface without displaying a second control affordance; displaying a first control affordance in accordance with a determination that yes, and displaying a second control affordance in accordance with a determination that a second predetermined condition is met.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras and a camera control area containing a plurality of control affordances; without displaying a first control affordance associated with the first predefined condition and meeting the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying the associated second control affordance; displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance; detecting a change in conditions during the period of time, displaying a first control affordance in response to detecting the change in conditions, and displaying a first control affordance in accordance with a determination that the first predetermined condition is satisfied; displaying a second control affordance upon determining that a predetermined condition of is satisfied.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via a display device, displaying a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras and a camera control area containing a plurality of control affordances; without displaying a first control affordance associated with the first predefined condition and associated with the second predefined condition while the one predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying the second control affordance, displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance; and, in response to detecting the change in condition, displaying a first control affordance in accordance with a determination that the first predetermined condition is satisfied; displaying a second control affordance; Instructions are included for displaying a second control affordance upon determining that a predetermined condition is met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含み、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示し、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出し、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs display, via a display device, a camera user interface, the camera user interface including a camera display area containing representations of the field of view of one or more cameras, and a camera control containing a plurality of control affordances. a region, without displaying a first control affordance associated with the first predefined condition while the first predefined condition and the second predefined condition are not met; and displaying the camera user interface without displaying the second control affordance associated with the two predefined conditions; without displaying the first control affordance; without displaying the second control affordance; detecting a change in conditions while displaying the camera user interface; and in response to detecting the change in conditions, a first control affordance in accordance with determining that a first predetermined condition is met; and displaying a second control affordance upon determining that a second predetermined condition is met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、第1の既定の条件及び第2の既定の条件が満たされていない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示する手段と、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、かつカメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、条件の変化を検出したことに応じて、第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示し、第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することと、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a representation of the field of view of the one or more cameras. means for displaying a camera user interface including a display area and a camera control area including a plurality of control affordances; means for displaying a camera user interface without displaying a first control affordance associated with a predefined condition of and without displaying a second control affordance associated with a second predefined condition; means for detecting a change in conditions without displaying a first control affordance and without displaying a second control affordance and while displaying a camera user interface; Optionally, display a first control affordance upon determining that a first predetermined condition is met, and display a second control affordance upon determining that a second predefined condition is met. and displaying affordances.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出することと、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正することであって、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む、カメラコントロール領域の外観を修正することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via a display device, a camera user interface, the camera user interface including a camera display area containing representations of the fields of view of one or more cameras and a plurality of cameras at a first location. displaying a camera user interface comprising: a camera control area including a mode affordance; detecting a first gesture on the camera user interface while displaying the camera user interface; modifying the appearance of the camera control region in response to detecting the gesture, and adding one or more to the first location in accordance with determining that the first gesture is a first type of gesture; and stopping displaying a plurality of camera mode affordances in accordance with determining that the first gesture is a gesture of a second type different from the first type; displaying multiple camera setting affordances at positions of the camera setting affordances, the camera setting affordances being settings that adjust image capture for the currently selected camera mode; modifying the appearance of the camera control area;

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; presents, via a display device, a camera user interface, the camera user interface including a camera display area including representations of the field of view of one or more cameras, and a camera control including a plurality of camera mode affordances at a first location. and, while displaying the camera user interface, detecting a first gesture on the camera user interface, and modifying the appearance of the camera control area in response to detecting the first gesture. , including instructions, modifying the appearance of the camera control area displays one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a gesture of a first type. and according to determining that the first gesture is a gesture of a second type that is different from the first type, stopping displaying the multiple camera mode affordance; displaying a setting affordance, the camera setting affordance including displaying a plurality of camera setting affordances, which are settings for adjusting image capture for a currently selected camera mode.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via a display device, displaying a camera user interface, the camera user interface including a camera display area including a representation of the field of view of one or more cameras, and a camera control area including a plurality of camera mode affordances at a first location. and, while displaying the camera user interface, detecting a first gesture on the camera user interface, and modifying the appearance of the camera control area in response to detecting the first gesture. Modifying the appearance of the camera control region includes instructions to display one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a gesture of the first type. and determining that the first gesture is a gesture of a second type different from the first type, stopping displaying the multiple camera mode affordance and setting the multiple cameras at the first position. displaying affordances, the camera setting affordances including displaying a plurality of camera setting affordances, which are settings that adjust image capture for a currently selected camera mode.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含み、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出し、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する、命令を含み、カメラコントロール領域の外観を修正することは、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs display, via a display device, a camera user interface, the camera user interface including a camera display area containing representations of the field of view of one or more cameras, and a plurality of cameras at a first location. a camera control region including a mode affordance, while displaying the camera user interface, detecting a first gesture on the camera user interface; and in response to detecting the first gesture, controlling the camera. The instruction includes modifying the appearance of the region, wherein modifying the appearance of the camera control region includes one or more additional gestures at the first location in accordance with determining that the first gesture is a gesture of a first type. and stopping displaying a plurality of camera mode affordances in accordance with determining that the first gesture is a gesture of a second type different from the first type; displaying multiple camera setting affordances at positions of the camera setting affordances, the camera setting affordances being settings that adjust image capture for the currently selected camera mode; include.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上の第1のジェスチャを検出する手段と、第1のジェスチャを検出したことに応じて、カメラコントロール領域の外観を修正する手段であって、第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、複数のカメラモードアフォーダンスを表示することを停止し、第1の位置に複数のカメラ設定アフォーダンスを表示することであって、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、複数のカメラ設定アフォーダンスを表示することと、を含む、カメラコントロール領域の外観を修正する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a representation of the field of view of the one or more cameras. means for displaying a camera user interface including a display area and a camera control area including a plurality of camera mode affordances at a first location; Means for detecting one gesture and means for modifying the appearance of the camera control region in response to detecting the first gesture, wherein the first gesture is a first type of gesture. according to displaying one or more additional camera mode affordances at a first position; and determining that the first gesture is a gesture of a second type different from the first type, according to the plurality of cameras ceasing to display mode affordances and displaying a plurality of camera setting affordances in a first position, the camera setting affordances being settings that adjust image capture for the currently selected camera mode; displaying a plurality of camera setting affordances; and means for modifying the appearance of the camera control area.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することとし、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes: receiving a request to display a camera user interface; and, in response to receiving the request to display the camera user interface and in accordance with a determination that respective criteria are not met, through a display device. and displaying a camera user interface, the camera user interface having a first region containing a representation of a first portion of the field of view of the one or more cameras and a second region of the field of view of the one or more cameras. a second region comprising a representation of a portion of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visually distinct from the first portion of the camera displaying a user interface; detecting input corresponding to a request to capture media with one or more cameras while the camera user interface is displayed; and capturing media with the one or more cameras. Visual content corresponding to a first portion of the field of view of the one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras in response to detecting input corresponding to the request. capturing, with one or more cameras, a media item comprising a; receiving a request to display the media item after capturing the media item; and in response to receiving the request to display the media item. , a first portion of visual content corresponding to a first portion of the field of view of the one or more cameras without displaying a representation of at least a portion of the visual content corresponding to a second portion of the field of view of the one or more cameras; displaying the representation.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; receives a request to display the camera user interface, and in response to receiving the request to display the camera user interface and in accordance with a determination that the respective criteria are not met, via the display device, the camera user displaying an interface, the camera user interface having a first region containing a representation of a first portion of the field of view of the one or more cameras and a second region containing a representation of a second portion of the field of view of the one or more cameras; and a second portion of the field of view of the one or more cameras includes a second region visually distinct from the first portion, while the camera user interface is displayed. in response to detecting input corresponding to a request to capture media on one or more cameras and, in response to detecting input corresponding to a request to capture media on one or more cameras, capturing a media item with one or more cameras, including visual content corresponding to a first portion of the field of view and visual content corresponding to a second portion of the field of view of the one or more cameras; After capturing, receiving a request to display the media item and, in response to receiving the request to display the media item, a representation of at least a portion of the visual content corresponding to a second portion of the field of view of the one or more cameras. display a first representation of visual content corresponding to a first portion of the field of view of one or more cameras without displaying the .

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , receiving a request to display the camera user interface, and in response to receiving the request to display the camera user interface and in accordance with a determination that the respective criteria are not met, via the display device; and the camera user interface includes a first region containing a representation of a first portion of the field of view of the one or more cameras and a second region containing a representation of a second portion of the field of view of the one or more cameras a region, a second portion of the field of view of the one or more cameras including a second region visually distinct from the first portion, while the camera user interface is displayed; , the field of view of one or more cameras in response to detecting input corresponding to a request to capture media on one or more cameras, and detecting input corresponding to a request to capture media on one or more cameras. and visual content corresponding to a second portion of the field of view of the one or more cameras with one or more cameras, capturing the media item after receiving a request to display the media item, and in response to receiving the request to display the media item, rendering a representation of at least a portion of the visual content corresponding to a second portion of the field of view of the one or more cameras. Instructions are included for displaying, without displaying, a first representation of visual content corresponding to a first portion of the field of view of one or more cameras.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含み、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャし、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信し、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs receive a request to display the camera user interface, and in response to receiving the request to display the camera user interface and in accordance with a determination that the respective criteria are not met, the display device to display a camera user interface, the camera user interface having a first region containing a representation of a first portion of the field of view of the one or more cameras and a second portion of the field of view of the one or more cameras wherein the second portion of the field of view of the one or more cameras is visually distinct from the first portion, the camera user interface is displayed, and in response to detecting input corresponding to a request to capture media with one or more cameras, and detecting input corresponding to a request to capture media with one or more cameras, A media item containing visual content corresponding to a first portion of the field of view of one or more cameras and visual content corresponding to a second portion of the field of view of the one or more cameras is processed by one or more cameras. a vision corresponding to a second portion of the field of view of one or more cameras after capturing and receiving a request to display the media item after capturing the media item; Instructions are included for displaying a first representation of visual content corresponding to a first portion of the field of view of one or more cameras without displaying a representation of at least a portion of the content.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応じて、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャする手段と、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信する手段と、メディアアイテムを表示する要求を受信したことに応じて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises: a display device; one or more cameras; means for receiving a request to display a camera user interface; means for displaying, via the display device, a camera user interface in accordance with the determination that the camera user interface is not, the camera user interface including a first region including a representation of a first portion of the field of view of one or more cameras; and a second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visually distinct from the first portion means for displaying a camera user interface; and means for detecting input corresponding to a request to capture media with one or more cameras while the camera user interface is being displayed. and, in response to detecting input corresponding to a request to capture media with one or more cameras, visual content corresponding to a first portion of the field of view of one or more cameras; visual content corresponding to a second portion of the field of view; means for capturing with one or more cameras a media item comprising; In response to receiving a request to display an item, a first view of the one or more cameras' fields of view is displayed without displaying a representation of at least a portion of the visual content corresponding to a second portion of the one or more cameras' fields of view. and means for displaying a first representation of visual content corresponding to the one portion.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method comprises displaying, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras. and detecting, while displaying a camera user interface, a request to capture media corresponding to one or more camera views; and a request to capture media corresponding to one or more camera views. in response to detecting, capturing media corresponding to the field of view of one or more cameras; displaying representations of the captured media; while displaying representations of the captured media; Detecting that the captured representation of media has been displayed for a predetermined period of time and displaying the camera user interface in response to detecting that the captured representation of media has been displayed for the predetermined period of time. ceasing displaying at least the first portion of the representation of the captured media while maintaining.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays a camera user interface via a display device, the camera user interface includes a camera display area containing a representation of the field of view of one or more cameras, and while displaying the camera user interface, one Detecting a request to capture media corresponding to the one or more camera views, and responding to the one or more camera views in response to detecting a request to capture media corresponding to the one or more camera views. Capturing media, displaying a representation of the captured media, detecting that the representation of the captured media was displayed for a predetermined period of time while displaying the representation of the captured media, and capturing the representation of the captured media displaying at least a first portion of the captured media representation while maintaining display of the camera user interface in response to detecting that the captured media representation has been displayed for a predetermined period of time; including instructions to stop

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via a display device, displaying a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras, and while displaying the camera user interface, one or more , and in response to detecting a request to capture media corresponding to one or more camera views, media corresponding to one or more camera views. , displaying the captured media representation, detecting that the captured media representation was displayed for a predetermined period of time while viewing the captured media representation, and capturing the captured Displaying at least a first portion of the captured media representation while maintaining display of the camera user interface in response to detecting that the media representation has been displayed for a predetermined period of time. include instructions to stop.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出し、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示し、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出し、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs display a camera user interface via a display device, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras, displaying the camera user interface detects a request to capture media corresponding to one or more camera views, and in response to detecting a request to capture media corresponding to one or more camera views, one or more Capturing media corresponding to the field of view of the camera, displaying the representation of the captured media, and displaying the representation of the captured media for a period of time while displaying the representation of the captured media and displaying at least a first representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period of time. contains an instruction to stop displaying the portion of

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出する手段と、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応じて、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現を表示する手段と、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する手段と、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a representation of the field of view of the one or more cameras. means for displaying a camera user interface, including a display area; means for detecting, while displaying the camera user interface, a request to capture media corresponding to the field of view of one or more cameras; means for capturing media corresponding to one or more camera fields of view and displaying a representation of the captured media in response to detecting a request to capture media corresponding to the camera fields of view; means for detecting that the captured media representation has been displayed for a predetermined period of time while displaying the representation of and detecting that the captured media representation has been displayed for the predetermined period of time; means for discontinuing displaying at least a first portion of the representation of the captured media while maintaining display of the camera user interface.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、電子デバイスを構成することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method comprises displaying a camera user interface via a display device, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras. and each on a representation of the field of view of one or more cameras while the electronic device is configured to capture media at the first aspect ratio in response to receiving a request to capture media. Detecting a first input that includes a first contact at a location; and responsive to detecting the first input, rendering media in accordance with determining that a set of aspect ratio change criteria are met. Configuring an electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a capture request, wherein the set of aspect ratio change criteria is at least a threshold amount of time Maintaining a first contact at a first position corresponding to a predetermined portion of a camera display area indicative of at least a portion of a boundary of media to be captured in response to a request to capture media across, followed by a first configuring an electronic device that includes a criterion that is met when the first input includes detecting movement of the first contact to a second location that is different than the location.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras, and in response to receiving a request to capture media; Detecting a first input including a first touch at respective locations on a representation of the field of view of one or more cameras while the electronic device is configured to capture media at a first aspect ratio. and in response to detecting the first input, in response to a determination that a set of aspect ratio change criteria are met, in response to a request to capture media, a second aspect ratio different than the first aspect ratio. wherein the set of aspect ratio variation criteria indicates at least a portion of the bounds of the captured media in response to a request to capture the media for at least a threshold amount of time. Maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area, and subsequently detecting movement of the first contact to a second position different from the first position. Contains instructions, including criteria that are met when the first input includes.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via the display device, displaying a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras; Detecting a first input comprising a first touch at respective positions on a representation of the field of view of one or more cameras while the electronic device is configured to capture media at an aspect ratio of 1. , in response to detecting the first input, in response to a request to capture media in accordance with a determination that a set of aspect ratio change criteria are met, a second aspect ratio different than the first aspect ratio. A camera configured to capture media in an aspect ratio, wherein the set of aspect ratio variation criteria indicates at least a portion of the bounds of the captured media in response to a request to capture the media for at least a threshold amount of time. A first contact is maintained at a first position corresponding to a predetermined portion of the display area, followed by detecting movement of the first contact to a second position different from the first position. Contains instructions, including criteria that are met when one input contains.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含み、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成し、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , one or more programs display, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras, and receiving a request to capture media. responsively, including first touching at respective locations on the representation of the field of view of one or more cameras while the electronic device is configured to capture media at the first aspect ratio. Detecting a first input, and responsive to detecting the first input, responsive to determining that a set of aspect ratio change criteria are met, responsive to a request to capture media, the first aspect. configuring the electronic device to capture media at a second aspect ratio different than the ratio, wherein the set of aspect ratio change criteria defines boundaries of the captured media in response to a request to capture the media for at least a threshold amount of time; maintaining the first contact at a first position corresponding to a predetermined portion of the camera display area showing at least a portion of the portion, followed by the first contact at a second position different from the first position; An instruction is included that includes a criterion that is met when the first input includes detecting movement.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、第1の入力を検出したことに応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成する手段であって、1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む、電子デバイスを構成する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a representation of the field of view of the one or more cameras. means for displaying a camera user interface, including a display area, while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media; means for detecting a first input comprising a first touch at respective locations on a representation of the field of view of one or more cameras; and a set of aspect ratio change criteria in response to detecting the first input; means for configuring an electronic device to capture media at a second aspect ratio different than the first aspect ratio in response to a request to capture media according to a determination that a is satisfied, comprising: The set of aspect ratio change criteria is first at a first location corresponding to a predetermined portion of the camera display area indicating at least a portion of a boundary of media captured in response to a request to capture media for at least a threshold amount of time. and subsequently detecting movement of the first contact to a second position different from the first position. means for configuring.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation. , detecting a change in orientation of the electronic device from the first orientation to the second orientation, and in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation. , at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met. and displaying a second camera user interface that captures media.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation; detecting a change in orientation of the electronic device from the orientation to the second orientation and intervening user input in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation capturing media at a second camera orientation at a second zoom level different from the first zoom level, according to a determination that a set of auto-zoom criteria are met, automatically without including instructions to display the camera user interface of

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation; to a second orientation, and intervening user input in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation a second camera orientation that automatically captures the media at a second camera orientation at a second zoom level different from the first zoom level according to the determination that the set of auto-zoom criteria are met; Contains instructions for displaying a camera user interface.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出し、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs provide a first camera user interface that captures media at a first camera orientation at a first zoom level via a display device while the electronic device is in the first orientation. displaying, detecting a change in orientation of the electronic device from the first orientation to a second orientation, and in response to detecting a change in orientation of the electronic device from the first orientation to the second orientation; , at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met. Instructions are included for displaying a second camera user interface that captures media.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応じて、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and capturing media at a first camera orientation at a first zoom level via the display device while the electronic device is in the first orientation. means for displaying a first camera user interface to display a first camera user interface; means for detecting a change in orientation of the electronic device from the first orientation to the second orientation; In response to detecting a change in orientation of the device, automatically without intervening user input, a second zoom level different from the first zoom level in accordance with a determination that a set of auto-zoom criteria are met. means for displaying a second camera user interface capturing media at a second camera orientation at a zoom level of .

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a media capture user interface that includes displaying a representation of one or more camera views via a display device; and, while displaying the media capture user interface, one or more and in response to detecting a change in the field of view of the one or more cameras via the cameras of and a variable frame rate criterion is met based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras satisfies the movement criterion; , updating a representation of the field of view of the one or more cameras; and determining that the detected change in the field of view of the one or more cameras does not satisfy the motion criterion, a second frame rate lower than the first frame rate. updating representations of the one or more cameras' fields of view based on detected changes in the one or more cameras' fields of view at a frame rate of .

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a media capture user interface that includes displaying a representation of the field of view of one or more cameras; and, while displaying the media capture user interface, via one or more cameras. , detecting a change in the field of view of one or more cameras, and in response to detecting a change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met, 1 one or more cameras based on detected changes in the one or more cameras' fields of view at a first frame rate, according to a determination that the detected changes in the one or more cameras' fields of view satisfy the movement criteria; and updating the representation of the field of view of one or more cameras at a second frame rate lower than the first frame rate according to a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criteria. Instructions are included for updating representations of one or more cameras' fields of view based on detected changes in the cameras' fields of view.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via a display device, displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras; and, while displaying the media capture user interface, via one or more cameras. , detecting a change in the field of view of the one or more cameras, and in response to detecting a change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met. of the one or more cameras based on detected changes in the fields of view of the one or more cameras at the first frame rate, according to determining that the detected changes in the fields of view of the or more cameras satisfy the movement criterion. Updating the representation of the field of view and one or more cameras at a second frame rate lower than the first frame rate upon determining that the detected change in the field of view of the one or more cameras does not satisfy the movement criteria. instructions for updating a representation of the field of view of one or more cameras based on detected changes in the field of view of the .

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出し、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , one or more programs display a media capture user interface that includes displaying a representation of the field of view of one or more cameras via a display device; Detecting a change in the field of view of the one or more cameras, via the one or more cameras, in response to detecting a change in the field of view of the one or more cameras, and a variable frame rate criterion is met based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras satisfies the movement criterion; , updating a representation of the field of view of the one or more cameras, and a second frame lower than the first frame rate in accordance with a determination that the detected change in the field of view of the one or more cameras does not satisfy the movement criteria. Instructions are included for updating representations of the one or more cameras' fields of view based on detected changes in the one or more cameras' fields of view at a rate.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、メディアキャプチャユーザインタフェースを表示している間に、1つ以上のカメラを介して、1つ以上のカメラの視野内の変化を検出する手段と、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新し、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内の検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する、手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes: a display device; one or more cameras; means for displaying a media capture user interface including displaying a representation of the field of view of the one or more cameras via the display device; means for detecting, via one or more cameras, a change in the field of view of the one or more cameras while the interface is being displayed; at a first frame rate, and according to determining that a detected change in the field of view of one or more cameras satisfies a movement criterion, and according to determining that a variable frame rate criterion is satisfied. updating a representation of the one or more cameras' fields of view based on the detected change in the camera's field of view, and according to a determination that the detected change in the one or more cameras' fields of view does not satisfy a movement criterion; means for updating representations of the one or more cameras' fields of view based on detected changes in the one or more cameras' fields of view at a second frame rate that is lower than the first frame rate.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む、カメラユーザインタフェースを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method comprises: receiving a request to display a camera user interface; and responsive to receiving the request to display a camera user interface, displaying the camera user interface via a display device, the display Displaying, via the device, a representation of the field of view of one or more cameras, and a low light condition being met, including a condition met when ambient light within the field of view of the one or more cameras is below respective thresholds. displaying controls for adjusting the capture duration for capturing media upon request to capture media concurrently with a representation of the field of view of one or more cameras, according to a determination that low light conditions were not met; displaying a camera user interface, including hiding controls for adjusting the capture duration, according to the determination of .

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; includes instructions for receiving a request to display a camera user interface and, in response to receiving a request to display a camera user interface, displaying the camera user interface via a display device; displaying, via a display device, a representation of the field of view of one or more cameras; displaying controls for adjusting the capture duration for capturing media in response to a request to capture media concurrently with a representation of the field of view of one or more cameras according to a determination that light conditions have been met; and low light conditions. ceasing to display the controls for adjusting the capture duration, in accordance with determining that is not satisfied.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , receiving a request to display the camera user interface, and responsive to receiving the request to display the camera user interface, displaying the camera user interface via a display device, including instructions for displaying the camera user interface. That is, displaying, via a display device, a representation of the field of view of one or more cameras, and a low light condition including conditions met when ambient light within the field of view of the one or more cameras is below respective thresholds. displaying controls for adjusting the capture duration for capturing media in response to a request to capture media concurrently with a representation of the field of view of one or more cameras according to determining that a condition is met; Ceasing display of controls for adjusting the capture duration in accordance with the determination that the conditions have not been satisfied.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、カメラユーザインタフェースを表示する要求を受信し、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、カメラユーザインタフェースを表示することは、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs include instructions for receiving a request to display the camera user interface and, in response to receiving a request to display the camera user interface, displaying the camera user interface via the display device. , displaying a camera user interface comprises displaying, via a display device, a representation of the field of view of one or more cameras; and when ambient light within the field of view of the one or more cameras falls below respective thresholds Displays a representation of the field of view of one or more cameras along with a control that adjusts the capture duration for capturing media upon request to capture media according to a determination that a low-light condition has been met, including the conditions that are met. and discontinuing display of the controls for adjusting the capture duration in accordance with the determination that the low light condition was not met.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応じて、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされなかったとの判定に従って、キャプチャ持続時間を調整するコントロールの表示をやめることと、を含む、カメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, means for receiving a request to display the camera user interface, and in response to receiving the request to display the camera user interface, via the display device: A means for displaying a camera user interface, the display device via a display device representing a representation of the field of view of one or more cameras, and when ambient light within the field of view of the one or more cameras is below a respective threshold. Displays a representation of the field of view of one or more cameras, as well as controls to adjust the capture duration for capturing media on demand, as determined that low-light conditions have been met, including and discontinuing display of controls for adjusting the capture duration in accordance with a determination that the low light condition has not been met.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめることと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying a camera user interface via a display device and, while displaying the camera user interface, via one or more sensors of the electronic device within a field of view of one or more cameras. and the amount of light within the field of view of the one or more cameras is determined in response to detecting the amount of light within the field of view of the one or more cameras. A flash status indicator indicating the status of the flash operation and a low light capture mode indicating the status of the low light capture mode are displayed within the camera user interface according to the determination that the low light environment criteria are met, including criteria that are met when below a threshold of and ceasing display of the low-light capture status indicator in the camera user interface upon simultaneously displaying a capture status indicator and determining that the amount of light within the field of view of one or more cameras does not meet low-light environment criteria. including

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays a camera user interface via a display device and, while displaying the camera user interface, detects the amount of light within the field of view of one or more cameras via one or more sensors of the electronic device and in response to detecting the amount of light within the field of view of the one or more cameras, when the amount of light within the field of view of the one or more cameras is below a predetermined threshold A flash status indicator indicating the status of the flash operation and a low light capture status indicator indicating the status of the low light capture mode are provided in the camera user interface according to the determination that the low light environment criteria are met, including the criteria that are met. Concurrently displaying and de-displaying a low-light capture status indicator in the camera user interface in accordance with a determination that the amount of light within the field of view of one or more cameras does not meet low-light environment criteria.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, the one or more programs comprising , via a display device, displaying a camera user interface, and while displaying the camera user interface, via one or more sensors of the electronic device, detecting the amount of light within the field of view of one or more cameras. , in response to detecting the amount of light within the field of view of the one or more cameras, is satisfied when the amount of light within the field of view of the one or more cameras is below a predetermined threshold. Simultaneously display within the camera user interface a flash status indicator indicating the status of flash operation and a low light capture status indicator indicating the status of the low light capture mode according to the determination that the low light environment criteria are met, including the criteria for Displaying and de-displaying a low-light capture status indicator in a camera user interface in accordance with a determination that the amount of light within the field of view of one or more cameras does not meet low-light environment criteria.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出し、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs display a camera user interface via a display device, and, while displaying the camera user interface, via one or more sensors of the electronic device, the one or more cameras. Detecting the amount of light within the field of view, and detecting the amount of light within the field of view of the one or more cameras in response to detecting the amount of light within the field of view of the one or more cameras. A flash status indicator indicating the status of the flash operation and a low light capture mode indicating the status of the low light capture mode are displayed within the camera user interface according to the determination that the low light environment criteria are met, including criteria that are met when below a threshold of simultaneously display a capture status indicator and, upon determining that the amount of light within the field of view of one or more cameras does not meet low-light environment criteria, cease displaying the low-light capture status indicator in the camera user interface; including.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出する手段と、1つ以上のカメラの視野内の光量を検出したことに応じて、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示し、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータの表示をやめる、手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, means for displaying a camera user interface via the display device, and one or more sensors of the electronic device while displaying the camera user interface. means for detecting the amount of light within the field of view of the one or more cameras via a; A flash status indicator within the camera user interface indicating the status of flash operation in accordance with a determination that low light environment criteria are met, including criteria met when the amount of light within the field of view of one or more cameras falls below a predetermined threshold. and a low-light capture status indicator indicating the status of the low-light capture mode, according to a determination that the amount of light within the field of view of one or more cameras does not meet low-light environment criteria. and means for discontinuing display of the low light capture status indicator of the.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device. The method includes displaying a media editing user interface on the display device, the media editing user interface including a first editable parameter corresponding to a representation of the visual media and a first editable parameter for editing the representation of the visual media. displaying a media editing user interface including one affordance and a second affordance corresponding to a second editable parameter for editing a representation of the visual media; and while displaying the media editing user interface. and detecting a first user input corresponding to selection of the first affordance; and, in response to detecting the first user input corresponding to selection of the first affordance, on the display device: displaying an adjustable control for adjusting the first editable parameter at a respective position within the editing user interface; while displaying the adjustable control for adjusting the first editable parameter; and while the first editable parameter is selected, detecting a first gesture directed at an adjustable control that adjusts the first editable parameter; the current value of the first editable parameter according to the first gesture in response to detecting a first gesture directed at an adjustable control that adjusts the first editable parameter while being adjusting; and detecting a second user input corresponding to selection of the second affordance while displaying on the display device an adjustable control for adjusting the first editable parameter. , in response to detecting a second user input corresponding to selection of the second affordance, displaying at respective locations within the media editing user interface an adjustable control that adjusts the second editable parameter. and an adjustable control for adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected and detecting a second gesture directed at the adjustable control and adjusting the second editable parameter while the second editable parameter is selected. responsive to detecting the gesture, adjusting the current value of the second editable parameter according to the second gesture; include.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、メディア編集ユーザインタフェースを表示し、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含み、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出し、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整し、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示し、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出し、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being displayed on the display device. , displaying a media editing user interface, the media editing user interface editing the representation of the visual media and a first affordance corresponding to a first editable parameter for editing the representation of the visual media; a second affordance corresponding to a second editable parameter, detecting a first user input corresponding to selection of the first affordance while displaying the media editing user interface; an adjustable control on the display device at a respective position within the media editing user interface that adjusts the first editable parameter in response to detecting a first user input corresponding to the affordance selection of the an adjustable control for displaying and adjusting the first editable parameter while displaying an adjustable control for adjusting the first editable parameter and while the first editable parameter is selected detect a first gesture directed at an adjustable control and perform a first gesture directed at an adjustable control that adjusts the first editable parameter while the first editable parameter is selected In response to detecting, adjusting the current value of the first editable parameter according to the first gesture, while displaying on the display device an adjustable control for adjusting the first editable parameter. , detecting a second user input corresponding to the selection of the second affordance, and a respective position within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. display an adjustable control for adjusting a second editable parameter, while displaying an adjustable control for adjusting the second editable parameter, and the second editable parameter is selected detecting a second gesture directed at an adjustable control that adjusts a second editable parameter while the second editable parameter is selected; in response to detecting a second gesture directed at the adjustable control that adjusts the second gesture in accordance with the second gesture Contains instructions that adjust the current value of an editable parameter.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、メディア編集ユーザインタフェースを表示し、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含み、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出し、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整し、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示し、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出し、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs on the display device: displaying a media editing user interface, the media editing user interface including a representation of the visual media, a first affordance corresponding to a first editable parameter for editing the representation of the visual media, and a first affordance for editing the representation of the visual media; a second affordance corresponding to the two editable parameters; and, while displaying the media editing user interface, detecting a first user input corresponding to selection of the first affordance; Displaying on the display device, at respective positions within the media editing user interface, an adjustable control that adjusts the first editable parameter in response to detecting a first user input corresponding to the selection of the affordance. and while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected, the adjustable Detect a first gesture directed at the control and detect a first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. responsively adjusting the current value of the first editable parameter according to the first gesture; while displaying on the display device an adjustable control for adjusting the first editable parameter; detecting a second user input corresponding to the selection of the second affordance; and at a respective position within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. , displaying an adjustable control for adjusting a second editable parameter, while displaying an adjustable control for adjusting the second editable parameter, and the second editable parameter is selected detecting a second gesture directed at an adjustable control that adjusts a second editable parameter while the second editable parameter is selected, and adjusting the second editable parameter while the second editable parameter is selected In response to detecting a second gesture directed at the adjustable control to adjust, a second edit is performed according to the second gesture. Contains instructions to adjust the current values of collectable parameters.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, an electronic device is described. The electronic device displays a media editing user interface on the display device, the media editing user interface corresponding to a representation of the visual media and a first editable parameter for editing the representation of the visual media. displaying a media editing user interface including a first affordance and a second affordance corresponding to a second editable parameter for editing a presentation of visual media; and displaying the media editing user interface. between, detecting a first user input corresponding to the selection of the first affordance; and in response to detecting the first user input corresponding to the selection of the first affordance, on the display device: displaying an adjustable control for adjusting the first editable parameter at a respective position within the media editing user interface; while displaying the adjustable control for adjusting the first editable parameter; and while the first editable parameter is selected, detecting a first gesture directed to an adjustable control that adjusts the first editable parameter; In response to detecting a first gesture directed at the adjustable control that adjusts the first editable parameter while selected, the current value of the first editable parameter according to the first gesture. and detecting a second user input corresponding to selection of the second affordance while displaying on the display device an adjustable control for adjusting the first editable parameter. and, in response to detecting a second user input corresponding to the selection of the second affordance, displaying an adjustable control at a respective position within the media editing user interface that adjusts the second editable parameter. and adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected. Detecting a second gesture directed to the enable control and adjusting the second editable parameter while the second editable parameter is selected, the second gesture directed to the adjustable control. adjusting the current value of the second editable parameter according to the second gesture in response to detecting the and, including.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、メディア編集ユーザインタフェースは、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に、第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応じて、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整する手段と、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、メディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応じて、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display device and means for displaying a media-editing user interface on the display device, the media-editing user interface comprising a representation of the visual media and a first editable editable representation of the visual media. means for displaying a media editing user interface including a first affordance corresponding to a parameter and a second affordance corresponding to a second editable parameter for editing a representation of a visual media; means for, while displaying, detecting a first user input corresponding to selection of the first affordance; and in response to detecting the first user input corresponding to selection of the first affordance, displaying means for displaying on the device an adjustable control for adjusting the first editable parameter at respective positions within the media editing user interface; and displaying an adjustable control for adjusting the first editable parameter. and while the first editable parameter is selected, means for detecting a first gesture directed at an adjustable control that adjusts the first editable parameter; In response to detecting a first gesture directed at an adjustable control that adjusts the first editable parameter while the editable parameter is selected, the first editable according to the first gesture. Means for adjusting the current value of the parameter and a second user input corresponding to selection of the second affordance while displaying on the display device an adjustable control for adjusting the first editable parameter. and adjusting a second editable parameter to a respective position within the media editing user interface in response to detecting a second user input corresponding to the selection of the second affordance. and means for displaying a second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected. means for detecting a second gesture directed at the adjustable control that adjusts the second editable parameter, while the second editable parameter is selected, towards the adjustable control that adjusts the second editable parameter In response to detecting the second gesture, the current state of the second editable parameter according to the second gesture. and means for adjusting the current price.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイス上に、第1のユーザインタフェースを表示することであって、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む、第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device. The method comprises displaying, on a display device, a first user interface that includes a first representation of a first visual medium and an indication of a current adjustment amount for perspective distortion of the first visual medium. simultaneously displaying a first user interface; and displaying the adjustable control while displaying the first user interface on the display device and in response to detecting user input including a directed gesture and, in response to detecting user input including a gesture directed at the adjustable control, on the display device a selected gesture based on the magnitude of the gesture. and displaying a second representation of the first visual media with respective amounts of adjustment for perspective distortion.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being displayed on the display device. , displaying a first user interface to simultaneously display a first representation of a first visual medium and an adjustable control including an indication of a current amount of adjustment to perspective distortion of the first visual medium. detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device, including the gesture directed at the adjustable control Instructions are included for displaying, on the display device, a second representation of the first visual medium with respective amounts of adjustment to perspective distortion selected based on the magnitude of the gesture in response to detecting user input. .

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs on the display device: Displaying a first user interface to simultaneously display a first representation of a first visual medium and an adjustable control including an indication of a current amount of adjustment to perspective distortion of the first visual medium. and detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device, the user including the gesture directed at the adjustable control Instructions are included for displaying on the display device, in response to detecting the input, a second representation of the first visual medium with respective adjustments to perspective distortion selected based on the magnitude of the gesture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイス上に、第1のユーザインタフェースを表示し、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含み、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs being , displaying, on a display device, a first user interface, a first representation of the first visual medium and adjustable controls including an indication of a current amount of adjustment to perspective distortion of the first visual medium; , and detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device; displaying on the display device a second representation of the first visual media with respective adjustments to perspective selected based on the magnitude of the gesture, in response to detecting user input including the gesture. do, including instructions.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、第1のユーザインタフェースを表示する手段であって、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む、第1のユーザインタフェースを表示する手段と、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する手段と、を備える。 According to some embodiments, an electronic device is described. The electronic device comprises a display device and means for displaying a first user interface on the display device, the first representation of the first visual medium and the current perspective distortion of the first visual medium. means for displaying a first user interface comprising simultaneously displaying adjustable controls including an indication of the amount of adjustment; and while displaying the first user interface on a display device; means for detecting user input including a gesture directed at the adjustable control; and means for displaying a second representation of the first visual medium with respective adjustments to perspective distortion selected based on.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、1つ以上のカメラの視野の表現を表示することを含む、メディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む、キャプチャ持続時間を調整するコントロールを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device. The method includes displaying a media capture user interface via a display device, including displaying a representation of a field of view of one or more cameras; Displaying controls for adjusting the capture duration for capturing media while the camera mode is active, wherein the controls are displayed according to a determination that a first set of capture duration criteria are met. displaying an indication that a first capture duration has been set; and a first capture duration over the first capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. Configuring the electronic device to capture a plurality of images and in accordance with determining that a second set of capture duration criteria different from the first set of capture duration criteria are met. , displaying an indication that the control is set to a second capture duration that is longer than the first capture duration, and a single request to capture images corresponding to one or more camera fields of view. configuring the electronic device to capture a second plurality of images over a second capture duration in response to displaying a control for adjusting the capture duration.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising one or more Display a media capture user interface via a display device, including displaying a representation of the camera's field of view, and controls to adjust the capture duration to capture media while the low-light camera mode is active. The displaying instructions include displaying the control to provide an indication that the control is set to the first capture duration in accordance with determining that the set of first capture duration criteria are met. Configuring the electronic device to capture a first plurality of images over a first capture duration in response to a single request to display and capture images corresponding to fields of view of one or more cameras. and determining that a second set of capture duration criteria different from the first set of capture duration criteria are met, the control performs a second capture duration that is longer than the first capture duration. displaying an indication that a capture duration has been set; and capturing a second plurality of images over a second capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. and configuring the electronic device to capture an image of.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising one or more Display a media capture user interface via a display device, including displaying a representation of the camera's field of view, and controls to adjust the capture duration to capture media while the low-light camera mode is active. The displaying instructions include displaying the control to provide an indication that the control is set to the first capture duration in accordance with determining that the set of first capture duration criteria are met. Configuring the electronic device to capture a first plurality of images over a first capture duration in response to a single request to display and capture images corresponding to fields of view of one or more cameras. and determining that a second set of capture duration criteria different from the first set of capture duration criteria are met, the control performs a second capture duration that is longer than the first capture duration. displaying an indication that a capture duration has been set; and capturing a second plurality of images over a second capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. and configuring the electronic device to capture an image of.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、1つ以上のカメラの視野の表現を表示することを含む、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する命令を含み、コントロールを表示することは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes one or more processors and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs comprising one or more Display the media capture user interface via the display device, including displaying a representation of the camera's field of view, and controls to adjust the capture duration to capture media while the low-light camera mode is active. Including instructions for displaying, displaying the control provides an indication that the control is set to the first capture duration in accordance with determining that the set of first capture duration criteria are met. Configuring the electronic device to capture a first plurality of images over a first capture duration in response to a single request to display and capture images corresponding to fields of view of one or more cameras. and determining that a second set of capture duration criteria different from the first set of capture duration criteria are met, the control performs a second capture duration that is longer than the first capture duration. displaying an indication that a capture duration has been set; and capturing a second plurality of images over a second capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. and configuring the electronic device to capture an image of.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、1つ以上のカメラの視野の表現を表示することを含む、メディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、コントロールが第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む、キャプチャ持続時間を調整するコントロールを表示する手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device and means for displaying a media capture user interface via the display device, the media capture user interface including displaying a representation of a field of view of one or more cameras. and means for displaying controls for adjusting the capture duration for capturing media while the low light camera mode is active, wherein a first set of capture duration criteria are met. According to the determination, displaying an indication that the control is set to a first capture duration; configuring the electronic device to capture a first plurality of images over a capture duration; satisfying a second set of capture duration criteria different from the first set of capture duration criteria; displaying an indication that the control is set to a second capture duration longer than the first capture duration, and capturing an image corresponding to the field of view of one or more cameras. configuring the electronic device to capture a second plurality of images over a second capture duration in response to a single request to do so; and means for displaying controls for adjusting the capture duration. ,including.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始することと、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via a display device, a media capture user interface including a representation of one or more camera views; receiving a request to capture the media; in response to receiving the request to capture media, via one or more cameras; at a first time after initiating media capture, via the display device upon determining that a set of guidance criteria are met, including criteria met when the low-light mode is active; displaying a visual indication of the difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at a first time after media capture is initiated.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being transmitted via the display device. display a media capture user interface including a representation of the field of view of one or more cameras; receive, via the display device, a request to capture media while displaying the media capture user interface; in response to receiving a request to capture, via one or more cameras, initiating media capture; at a first time after initiating media capture via the one or more cameras; pose and pose of the electronic device when media capture is initiated, via the display device, according to a determination that a set of guidance criteria are met, including criteria met when a low-light mode is active; , displaying a visual indication of the difference between the pose of the electronic device at a first time after starting media capture.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信するし、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being transmitted via the display device. displaying a media capture user interface including a representation of the field of view of one or more cameras; receiving, via the display device, a request to capture media while displaying the media capture user interface; at a first time after starting to capture media via the one or more cameras in response to receiving a request to capture the , the pose of the electronic device when media capture is initiated via the display device according to a determination that a set of guidance criteria are met, including the criteria met when the low light mode is active; and a pose of the electronic device at a first time after starting media capture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始し、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more processors, and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs being , display, via a display device, a media capture user interface that includes a representation of the field of view of one or more cameras, and request, via the display device, to capture media while displaying the media capture user interface. receive and initiate media capture via the one or more cameras in response to receiving a request to capture media; At time 1, when media capture is initiated via the display device according to a determination that a set of guidance criteria are met, including criteria met when the low light mode is active; Instructions are included for displaying a visual indication of a difference between the pose of the electronic device and the pose of the electronic device at a first time after starting media capture.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, means for displaying, via the display device, a media capture user interface including a representation of one or more camera views, and display, via the display device, the media capture user interface. means for receiving a request to capture media during a time period; means for initiating media capture via one or more cameras in response to receiving a request to capture media; Display, via the camera, at a first time after initiating media capture, in accordance with a determination that a set of guidance criteria are met, including criteria met when the low-light mode is active. Means for displaying, via the device, a visual indication of the difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at a first time after media capture is initiated. and including.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示することを含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via a display device, a camera user interface, the camera user interface including a first region including a first representation of a first portion of a field of view of one or more cameras and , a second region outside the first region and visually distinct from the first region, wherein each first object within the field of view of the one or more cameras has one or more One or more of the camera's fields of view within the second region according to a determination that a first respective criterion of a set is met, including the criterion being met at a first distance from the camera. displaying the second portion in a first visual appearance and a criterion met when the first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras; displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region according to a determination that a second set of respective criteria are met; and displaying a camera user interface.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域とを含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being transmitted via the display device. a camera user interface, the camera user interface having a first region including a first representation of a first portion of a field of view of one or more cameras; and a visually distinct second region, which is met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras displaying a second portion of the field of view of the one or more cameras in a first visual appearance within a second region according to a determination that a first set of respective criteria are met, including and a set of second respective criteria met, including criteria met when a first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras. ceasing to display a second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that the contains instructions to

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device with a display device, the one or more programs being transmitted via the display device. a camera user interface, the camera user interface having a first region including a first representation of a first portion of a field of view of one or more cameras; and a second region that is visually distinct from the region of and is filled when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within a second region according to a determination that a first set of respective criteria, including criteria, is satisfied; and a set of second respective criteria, including criteria met when a first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras ceasing to display a second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied. Contains instructions to display.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースであって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors, the one or more programs being , via a display device, a camera user interface, the camera user interface comprising a first region including a first representation of a first portion of a field of view of one or more cameras, and outside the first region; and a second region visually distinct from the first region, wherein each first object within the field of view of the one or more cameras is at a first distance from the one or more cameras A second portion of the field of view of the one or more cameras is placed within a second region in accordance with a determination that a first respective criterion of a set of criteria, including the criterion being met at a given time, is met. and a first set of criteria met when each first object in the field of view of the one or more cameras is a second distance from the one or more cameras. ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance, according to the determination that the respective criterion of , containing instructions to display the camera user interface.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域と、を含み、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることと、を含む、カメラユーザインタフェースを表示する手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface being a first portion of the field of view of the one or more cameras. and a second region outside the first region and visually distinct from the first region, within the field of view of one or more cameras according to a determination that a set of first respective criteria are met, including criteria met when the first respective object of is at a first distance from one or more cameras, a second displaying a second portion of the field of view of the one or more cameras in the region in a first visual appearance; A second field of view of the one or more cameras within the second region according to a determination that a set of second respective criteria are met, including the criteria met when the second distance. ceasing to display the portion of the camera user interface in the first visual appearance.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することを含む。この方法は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. The method includes, via a display device, displaying a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising: A first region containing a representation of a first portion of the field of view of the first camera at one zoom level and a first region containing a representation of the first portion of the field of view of the second camera at the first zoom level. and displaying a camera user interface. The method also includes, via the display device, one or more cameras while displaying a camera user interface including a representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level. Receiving a first request to increase the zoom level of the representation of the portion of the field of view of the camera to a second zoom level; and increasing the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level. A first portion of the first camera's field of view that excludes at least a subset of the first portion of the first camera's field of view in the first region at the second zoom level in response to receiving the first request. without displaying a representation of the two parts and in a second region a representation of a subset of the parts of the first camera's field of view excluded from the second part of the first camera's field of view; In a second region, at a second zoom level, a second portion of the second camera's field of view overlaps with a subset of the portion of the first camera's field of view excluded from the second portion of the first camera's field of view. and displaying a representation of the portion.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than that of the first camera. one or more programs configured to be executed by a display device, the one or more programs displaying at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device; displaying a camera user interface including a representation of the camera user interface, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at a first zoom level; and a second region comprising a representation of the first portion of the second camera's field of view of the second camera. The non-transitory computer-readable storage medium also via the display device while displaying a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. , receiving a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level; excluding at least a subset of a first portion of the field of view of the first camera in the first region at a second zoom level in response to receiving a first request to increase to a zoom level of displaying a representation of a second portion of the field of view of the camera and, in a second region, a representation of a subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; of the second camera overlapping a subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera at the second zoom level, without displaying and displaying a representation of the second portion of the field of view.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than that of the first camera. one or more programs configured to be executed by a display device, the one or more programs displaying at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device; displaying a camera user interface including a representation of the camera user interface, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at a first zoom level; and a second region comprising a representation of the first portion of the second camera's field of view of the second camera. The non-transitory computer-readable storage medium also via the display device while displaying a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. , receiving a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level; excluding at least a subset of a first portion of the field of view of the first camera in the first region at a second zoom level in response to receiving a first request to increase to a zoom level of displaying a representation of a second portion of the field of view of the camera and, in a second region, a representation of a subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; of the second camera overlapping a subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera at the second zoom level, without displaying and displaying a representation of the second portion of the field of view.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、命令を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device is executed by a display device, a first camera having a field of view, a second camera having a field of view wider than that of the first camera, one or more processors, and one or more processors. and a memory storing one or more programs configured to display the views of the one or more cameras displayed at the first zoom level via the display device. displaying a camera user interface including a representation of at least a portion of the camera user interface, the camera user interface including a first region including a representation of a first portion of the field of view of the first camera at a first zoom level; a second region comprising a representation of the first portion of the second camera's field of view at a zoom level. The electronic device also displays, via the display device, one or more receiving a first request to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a second zoom level; and increasing the zoom level of the representation of the portion of the field of view of one or more cameras to the second zoom level. excluding at least a subset of the first portion of the first camera's field of view in the first region at the second zoom level in response to receiving a first request to increase the field of view of the first camera; without displaying a representation of the second portion and, in the second region, a representation of a subset of the portion of the first camera's field of view excluded from the second portion of the first camera's field of view; , in a second region and at a second zoom level, a second portion of the field of view of the second camera that overlaps a subset of the portion of the field of view of the first camera that is excluded from the second portion of the field of view of the first camera. and displaying a representation of the portion of .

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、第1のズームレベルでの第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルでの第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応じて、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する第1のカメラの視野の第2の部分の表現を表示し、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示する、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more cameras, and, via the display device, a second camera. Means for displaying a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at one zoom level, the camera user interface comprising a view of the first camera at the first zoom level. A camera user interface including a first region containing a representation of a first portion of the field of view and a second region containing a representation of the first portion of the field of view of a second camera at a first zoom level. and means for displaying the The electronic device also displays, via the display device, one or more means for receiving a first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level; excluding at least a subset of the first portion of the first camera's field of view in the first region at the second zoom level in response to receiving a first request to increase the field of view of the first camera; without displaying a representation of the second portion and, in a second region, displaying a representation of a subset of the portion of the first camera's field of view excluded from the second portion of the first camera's field of view; In region 2, a second portion of the second camera's field of view overlaps with a subset of the first camera's portion of the field of view excluded from the first camera's second portion of the field of view at the second zoom level. and means for displaying a representation of

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで実行される。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することを含む。この方法は、また、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed on an electronic device having a display device and one or more cameras. The method includes, via a display device, displaying a camera user interface including a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface includes displaying a camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance. The method also includes, while displaying the plurality of zoom affordances, receiving a first gesture directed at one of the plurality of zoom affordances; In response, displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed at the first zoom affordance. and determining that the first gesture is a gesture directed at the second zoom affordance, at a third zoom level different from the first zoom level and the second zoom level, one or more and displaying a third representation of at least a portion of the field of view of the camera.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays via a display device a camera user interface including a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising a plurality of zoom affordances and wherein the plurality of zoom affordances includes a first zoom affordance and a second zoom affordance, and while displaying the plurality of zoom affordances, the first zoom affordance is directed toward one of the plurality of zoom affordances. and in response to receiving the first gesture, at a second zoom level, one or more displaying a second representation of at least a portion of the field of view of the camera at the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed at the second zoom affordance; includes instructions for displaying a third representation of at least a portion of the field of view of one or more cameras at a different third zoom level.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェースが、複数のズームアフォーダンスを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays via a display device a camera user interface including a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising a plurality of zoom affordances and wherein the plurality of zoom affordances includes a first zoom affordance and a second zoom affordance, and while displaying the plurality of zoom affordances, the first zoom affordance is directed toward one of the plurality of zoom affordances. and in response to receiving the first gesture, at a second zoom level, one or more displaying a second representation of at least a portion of the field of view of the camera at the first zoom level and the second zoom level in accordance with determining that the first gesture is a gesture directed at the second zoom affordance; includes instructions for displaying a third representation of at least a portion of the field of view of one or more cameras at a different third zoom level.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示し、カメラユーザインタフェース、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含み、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors. , one or more programs for displaying, via a display device, a camera user interface including a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level; , including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance, and while displaying the plurality of zoom affordances, zooming to one of the plurality of zoom affordances. A second zoom level in accordance with receiving a directed first gesture and, in response to receiving the first gesture, determining that the first gesture is a gesture directed at a first zoom affordance. at, displaying a second representation of at least a portion of the field of view of the one or more cameras, and, following determining that the first gesture is a gesture directed at a second zoom affordance, displaying a first zoom level and a second Instructions are included for displaying a third representation of at least a portion of the field of view of the one or more cameras at a third zoom level different than the two zoom levels.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、複数のズームアフォーダンスを含み、複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、複数のズームアフォーダンスを表示している間に、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、第1のジェスチャを受信したことに応じて、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and a first representation of at least a portion of the field of view of the one or more cameras displayed via the display device at a first zoom level. means for displaying an interface, the camera user interface including a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance; means for receiving, while displaying the plurality of zoom affordances, a first gesture directed at one of the plurality of zoom affordances; Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the gesture is a gesture directed to the first zoom affordance; A third zoom level of at least a portion of the field of view of the one or more cameras at a third zoom level different from the first zoom level and the second zoom level, following the determination that the gesture is directed to the second zoom affordance. and means for displaying a representation of 3.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて実行される。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することを含み、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この方法は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。この方法は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device having a display device and one or more cameras. The method includes displaying, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras and one or more cameras at first locations. a camera control region including a first plurality of camera mode affordances indicative of different modes of operation of the camera. The method also includes detecting a first gesture directed at the camera user interface while displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras; Displaying a first set of camera setting affordances at a first location in response to detecting a first gesture directed at the camera user interface, the first set of camera setting affordances displaying a first set of camera setting affordances, settings for adjusting image capture for a first camera mode; and ceasing to display the mode affordance. The method also includes displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode. , receiving a second gesture directed at the camera user interface; and a second camera mode different from the first camera mode in response to receiving the second gesture directed at the camera user interface. and at the first location without displaying a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location. and displaying a second set of camera setting affordances.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras and different modes of operation of the one or more cameras at first positions. and a camera control region that includes a first plurality of camera mode affordances indicative of a. The non-transitory computer-readable storage medium also performs a first gesture directed at the camera user interface while displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras. and displaying a first set of camera setting affordances at a first location in response to detecting a first gesture directed at the camera user interface; The set of camera setting affordances displays a first set of camera setting affordances, which are settings for adjusting image capture for a first camera mode; ceasing to display one multiple camera mode affordance. The non-transitory computer-readable storage medium also includes the electronic device configured to capture media in the first camera mode while displaying the first set of camera setting affordances at the first location. receiving a second gesture directed at the camera user interface while being in a different than first camera mode in response to receiving the second gesture directed at the camera user interface; without configuring the electronic device to capture media in a second camera mode and displaying a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; and displaying a second set of camera setting affordances at the first location.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; displays, via a display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras and different modes of operation of the one or more cameras at first positions. and a camera control region that includes a first plurality of camera mode affordances indicative of a. The non-transitory computer-readable storage medium also performs a first gesture directed at the camera user interface while displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras. and displaying a first set of camera setting affordances at a first location in response to detecting a first gesture directed at the camera user interface; The set of camera setting affordances displays a first set of camera setting affordances, which are settings for adjusting image capture for a first camera mode; ceasing to display one multiple camera mode affordance. The non-transitory computer-readable storage medium also includes the electronic device configured to capture media in a first camera mode while displaying the first set of camera setting affordances at the first location. receiving a second gesture directed at the camera user interface while being in a different than first camera mode in response to receiving the second gesture directed at the camera user interface; without configuring the electronic device to capture media in a second camera mode and displaying a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; and displaying a second set of camera setting affordances at the first location.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、命令を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止することと、を含む。この電子デバイスは、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs display, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of one or more cameras, and one or more at a first location. and a camera control region including a first plurality of camera mode affordances indicative of different modes of operation of the camera. The electronic device also detects a first gesture directed at the camera user interface while displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras. and displaying a first set of camera setting affordances at a first location in response to detecting a first gesture directed at the camera user interface, the first set of camera settings The affordances display a first set of camera setting affordances, which are settings for adjusting image capture for a first camera mode; and ceasing to display camera mode affordances. The electronic device also displays the first set of camera setting affordances at the first position and while the electronic device is configured to capture media in the first camera mode. and receiving a second gesture directed at the camera user interface; and a second camera different from the first camera mode in response to receiving the second gesture directed at the camera user interface. configuring the electronic device to capture media in a mode; displaying a second set of camera setting affordances in the .

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて、第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定であり、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することを停止する、手段と、を含む。この電子デバイスは、また、第1の位置に第1の1組のカメラ設定アフォーダンスを表示している間に、かつ第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成し、第1の位置に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示することなく、第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, and means for displaying a camera user interface via the display device, the camera user interface including a representation of the field of view of the one or more cameras. Means for displaying a camera user interface including a display area and a camera control area including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location. The electronic device also has means for detecting a first gesture directed at the camera user interface while displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras. , displaying a first set of camera setting affordances at a first location in response to detecting a first gesture directed at the camera user interface, the first set of camera setting affordances being the first set of camera setting affordances; a setting for adjusting image capture for one camera mode, and means for stopping displaying a first plurality of camera mode affordances indicative of different operating modes of the camera at the first position. The electronic device also displays the first set of camera setting affordances at the first position and while the electronic device is configured to capture media in the first camera mode. a means for receiving a second gesture directed at the camera user interface; and a second camera different from the first camera mode in response to receiving the second gesture directed at the camera user interface. configuring the electronic device to capture media in a first position at a first position without displaying a first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras at the first position; and means for displaying a set of 2 camera setting affordances.

いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて実行される。この方法は、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することと、を含む。 According to some embodiments, a method is described. The method is performed in an electronic device that includes a display device and one or more cameras. The method includes previously captured media including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. a display device, in response to receiving a request to display a representation of an item and, in response to receiving a request to display a previously captured representation of a media item, and determining that automatic media correction criteria have been met; displaying a previously captured representation of the media item including the combination of the first content and the second content via the display device; and displaying a representation of the previously captured media item that includes the first content and does not include the second content.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; is a previously captured media item containing first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. Via the display device upon receiving a request to display a representation and in response to receiving a request to display a representation of a previously captured media item and in accordance with determining that automatic media correction criteria have been met; displaying a previously captured representation of a media item that includes a combination of the first content and the second content, and displaying the first content, via the display device, in accordance with a determination that the automatic media correction criteria are not met; and displaying a representation of the previously captured media item that does not include the second content.

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras; is a previously captured media item containing first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. Via the display device upon receiving a request to display a representation and in response to receiving a request to display a representation of a previously captured media item and in accordance with determining that automatic media correction criteria have been met; displaying a previously captured representation of a media item that includes a combination of the first content and the second content, and displaying the first content, via the display device, in accordance with a determination that the automatic media correction criteria are not met; and displaying a representation of the previously captured media item that does not include the second content.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、自動メディア補正基準が満たされているとの判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示し、自動メディア補正基準が満たされていないとの判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示する、命令を含む。 According to some embodiments, an electronic device is described. The electronic device includes a display device, one or more cameras, one or more processors, and memory storing one or more programs configured to be executed by the one or more processors. , the one or more programs comprising first content from a first portion of the field of view of the one or more cameras and second content from a second portion of the field of view of the one or more cameras, previously Upon receiving a request to display a captured representation of a media item, and in response to receiving a request to display a previously captured representation of a media item, and following determining that automated media correction criteria have been met: displaying, via a display device, a representation of a previously captured media item including a combination of the first content and the second content; to display a representation of a previously captured media item that includes the first content and does not include the second content.

いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、メディアをキャプチャする要求を受信したことに応じて、1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスの移動を検出する手段と、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動を検出したことに応じて、電子デバイスの検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、1組のガイダンス基準が満たされていない検出された移動との判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示をやめる、手段と、を含む。 According to some embodiments, an electronic device is described. The electronic device comprises a display device, one or more cameras, means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras; Means for receiving a request to capture media while displaying the capture user interface, and in response to receiving the request to capture media, initiate media capture via one or more cameras. means for detecting, via one or more cameras, movement of the electronic device at a first time after initiating media capture; In response to detecting movement of the device, via the display device in accordance with a determination that a set of guidance criteria are met, including criteria met when detected movement of the electronic device exceeds a movement threshold. display one or more visual indications of the difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device, and detect a set of guidance criteria not being met. display, via the display device, of one or more visual indications of the difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device, according to the determined movement. including quit, means, and

いくつかの実施形態によれば、方法が記載される。この方法は、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて実行される。この方法は、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更することと、を含む。 According to some embodiments, a method is described. The method is performed in a computer system having one or more cameras in communication with one or more display devices and one or more input devices. The method is displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level. , displaying a camera user interface; detecting, while displaying the camera user interface, input corresponding to selection of a selectable user interface object; responsive to detecting, changing the zoom level to a second zoom level and enabling a low-light capture mode according to determining that the available light is below the threshold; changing the zoom level without enabling a low-light capture mode according to the determination.

いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースが、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a non-transitory computer-readable storage medium is described. The non-transitory computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system comprising one or more In communication with the display device and one or more input devices, the one or more programs display a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface displaying a zoom level. , detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface, and input corresponding to selection of the selectable user interface object upon detecting that the available light is below the threshold, changing the zoom level to a second zoom level, enabling the low-light capture mode, and if the available light is above the threshold: to change the zoom level without enabling the low-light capture mode according to the determination of .

いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースが、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, the computer system displaying one or more displays. In communication with the device and one or more input devices, the one or more programs display a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface displaying a zoom level. including a selectable user interface object for changing; detecting input corresponding to selecting the selectable user interface object while displaying the camera user interface; In response to detecting, changing the zoom level to a second zoom level, activating a low light capture mode, following a determination that the available light is below the threshold, and determining that the available light is above the threshold. According to the determination, instructions are included to change the zoom level without enabling the low light capture mode.

いくつかの実施形態によれば、コンピュータシステムが記載される。このコンピュータシステムは、1つ以上のカメラであって、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示し、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含み、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更する、命令を含む。 According to some embodiments, a computer system is described. The computer system is one or more cameras, the computer system is in communication with one or more display devices and one or more input devices; one or more processors; and a memory storing one or more programs configured to be executed by the one or more processors, the one or more programs having a camera preview for capturing media at a first zoom level. displaying a camera user interface, the camera user interface including a selectable user interface object for changing a zoom level, and providing input corresponding to selection of the selectable user interface object while displaying the camera user interface; Detecting and, in response to detecting input corresponding to selection of a selectable user interface object, changing the zoom level to a second zoom level according to determining that the available light is below the threshold, low light capture. Instructions are included to enable the mode and change the zoom level without enabling the low light capture mode upon determining that the available light is above a threshold.

いくつかの実施形態によれば、コンピュータシステムが記載される。このコンピュータシステムは、1つ以上のカメラであって、コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出したことに応じて、利用可能な光が閾値を下回るとの判定に従って、ズームレベルを第2のズームレベルに変更する手段と、低光キャプチャモードを有効化する手段と、利用可能な光が閾値を上回るとの判定に従って、低光キャプチャモードを有効化することなく、ズームレベルを変更することと、を含む。 According to some embodiments, a computer system is described. The computer system is one or more cameras, the computer system communicating with one or more display devices and one or more input devices to view media at a first zoom level. means for displaying a camera user interface having a camera preview for capturing, the camera user interface including a selectable user interface object for changing a zoom level; means for detecting input corresponding to selection of a selectable user interface object while displaying an interface; means for changing the zoom level to a second zoom level upon determining that the available light is below the threshold; means for enabling a low light capture mode; and upon determining that the available light is above the threshold, the low light capture mode. changing the zoom level without enabling .

これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions for performing these functions are optionally contained within a non-transitory computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions for performing these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.

このため、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を補完するか、又は置き換えることができる。 As such, devices are provided with faster, more efficient methods and interfaces for capturing and managing media, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for capturing and managing media.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various described embodiments, reference should be made to the following detailed description in conjunction with the following drawings, where like reference numerals refer to the following figures. Refers to corresponding parts throughout.

いくつかの実施形態による、タッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch sensitive display, according to some embodiments; FIG. いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating exemplary components for event processing, according to some embodiments; いくつかの実施形態による、タッチスクリーンを有するポータブル多機能デバイスを示す。1 illustrates a portable multifunction device with a touch screen, according to some embodiments; いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。1 is a block diagram of an exemplary multifunction device with a display and a touch sensitive surface, according to some embodiments; FIG. いくつかの実施形態による、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface of a menu of applications on a portable multifunction device, according to some embodiments; いくつかの実施形態による、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for a multifunction device having a touch-sensitive surface separate from the display, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスを示す。1 illustrates a personal electronic device, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスを示すブロック図である。1 is a block diagram illustrating a personal electronic device, according to some embodiments; FIG. いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch-sensitive display and an intensity sensor, according to some embodiments; いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。4 illustrates exemplary components of a personal electronic device having a touch-sensitive display and an intensity sensor, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。1 illustrates exemplary components and user interface of a personal electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying media controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera view using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates an exemplary technique and an exemplary user interface for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for modifying media items using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。4 illustrates an exemplary technique and an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。1 illustrates exemplary techniques and an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing frame rate using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing frame rate using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for responding to light conditions using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for responding to light conditions using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for responding to light conditions using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for providing camera indications using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for providing camera indications using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for providing camera indications using an electronic device, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for editing captured media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for editing captured media using an electronic device, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for editing captured media, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for editing captured media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for editing captured media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。1 illustrates an exemplary user interface for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing media using an electronic device, according to some embodiments; メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for providing guidance while capturing media; いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for changing zoom levels using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for accessing media capture controls using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically adjusting media captured using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device, according to some embodiments; いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。FIG. 4 is a flow diagram illustrating a method for automatically adjusting captured media using an electronic device, according to some embodiments; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for providing guidance while capturing media; メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for providing guidance while capturing media; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。4 illustrates an exemplary user interface for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for automatically managing media capture modes based on a set of conditions; 1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。FIG. 2 is a flow diagram illustrating a method for automatically managing media capture modes based on a set of conditions;

以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description sets forth exemplary methods, parameters, and the like. It should be recognized, however, that such description is not intended as a limitation on the scope of the present disclosure, but is instead provided as a description of exemplary embodiments.

メディアをキャプチャ及び管理する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技術は、メディアを管理するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 What is needed is an electronic device that provides an efficient method and interface for capturing and managing media. Such techniques can reduce the cognitive burden on users of managing media, thereby increasing productivity. In addition, such techniques can reduce processor and battery power otherwise wasted on redundant user input.

以下に、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Hは、イベント通知を管理する技法を実行するための例示的なデバイスの説明を提供する。 1A-1B, 2, 3, 4A-4B, and 5A-5H below provide descriptions of exemplary devices for implementing techniques for managing event notifications.

図6A~図6Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図7A~図7Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。図6A~図6Vのユーザインタフェースは、図7A~図7Cのプロセスを含む後述のプロセスを示すために使用される。 6A-6V illustrate exemplary techniques and exemplary user interfaces for accessing media controls using an electronic device, according to some embodiments. 7A-7C are flow diagrams illustrating methods for accessing media controls using an electronic device, according to some embodiments. The user interfaces of Figures 6A-6V are used to illustrate the processes described below, including the processes of Figures 7A-7C.

図8A~図8Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。図9A~図9Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。図8A~図8Vのユーザインタフェースは、図9A~図9Cのプロセスを含む後述のプロセスを示すために使用される。 8A-8V illustrate exemplary techniques and exemplary user interfaces for displaying media controls using an electronic device, according to some embodiments. 9A-9C are flow diagrams illustrating methods for displaying media controls using an electronic device, according to some embodiments. The user interfaces of Figures 8A-8V are used to illustrate the processes described below, including the processes of Figures 9A-9C.

図10A~図10Kは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。図11A~図11Cは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。図10A~図10Kのユーザインタフェースは、図11A~図11Cのプロセスを含む後述のプロセスを示すために使用される。 10A-10K illustrate exemplary techniques and exemplary user interfaces for displaying a camera view using an electronic device, according to some embodiments. 11A-11C are flow diagrams illustrating methods for displaying a camera view using an electronic device, according to some embodiments. The user interfaces of FIGS. 10A-10K are used to illustrate the processes described below, including the processes of FIGS. 11A-11C.

図12A~図12Kは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図13A~図13Bは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。図12A~図12Kのユーザインタフェースは、図13A~図13Bのプロセスを含む後述のプロセスを示すために使用される。 12A-12K illustrate exemplary techniques and exemplary user interfaces for accessing media items using an electronic device, according to some embodiments. 13A-13B are flow diagrams illustrating methods for accessing media items using an electronic device, according to some embodiments. The user interfaces of Figures 12A-12K are used to illustrate the processes described below, including the processes of Figures 13A-13B.

図14A~図14Uは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。図15A~図15Cは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。図14A~図14Uのユーザインタフェースは、図15A~図15Cのプロセスを含む後述のプロセスを示すために使用される。 14A-14U illustrate exemplary techniques and exemplary user interfaces for modifying media items using an electronic device, according to some embodiments. 15A-15C are flow diagrams illustrating methods for modifying media items using an electronic device, according to some embodiments. The user interfaces of Figures 14A-14U are used to illustrate the processes described below, including the processes of Figures 15A-15C.

図16A~図16Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。図17A~図17Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図16A~図16Qのユーザインタフェースは、図17A~図17Bのプロセスを含む後述のプロセスを示すために使用される。 16A-16Q illustrate exemplary techniques and exemplary user interfaces for changing zoom levels using an electronic device, according to some embodiments. 17A-17B are flow diagrams illustrating methods for changing zoom levels using an electronic device, according to some embodiments. The user interfaces of FIGS. 16A-16Q are used to illustrate the processes described below, including the processes of FIGS. 17A-17B.

図18A~図18Xは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。図19A~図19Bは、いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。図20A~図20Cは、いくつかの実施形態による、電子デバイスを使用して光条件に対応するための方法を示すフロー図である。図21A~図21Cは、いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。図18A~図18Xのユーザインタフェースは、図19A~図19B、図20A~図20C、及び図21A~図21Cのプロセスを含む後述のプロセスを示すために使用される。 18A-18X illustrate exemplary techniques and exemplary user interfaces for managing media using an electronic device, according to some embodiments. 19A-19B are flow diagrams illustrating methods for changing frame rate using an electronic device, according to some embodiments. 20A-20C are flow diagrams illustrating methods for responding to light conditions using electronic devices, according to some embodiments. 21A-21C are flow diagrams illustrating methods for providing camera indications using an electronic device, according to some embodiments. The user interfaces of FIGS. 18A-18X are used to illustrate the processes described below, including the processes of FIGS. 19A-19B, 20A-20C, and 21A-21C.

図22A~図22AMは、いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図23A~図23Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図22A~図22AMのユーザインタフェースは、図23A~図23Bのプロセスを含む後述のプロセスを示すために使用される。 22A-22AM illustrate exemplary user interfaces for editing captured media, according to some embodiments. 23A-23B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. The user interfaces of Figures 22A-22AM are used to illustrate the processes described below, including the processes of Figures 23A-23B.

図24A~図24ABは、いくつかの実施形態による、キャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図25A~図25Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図24A~図24ABのユーザインタフェースは、図25A~図25Bのプロセスを含む後述のプロセスを示すために使用される。 24A-24AB illustrate exemplary user interfaces for editing captured media, according to some embodiments. 25A-25B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. The user interfaces of Figures 24A-24AB are used to illustrate the processes described below, including the processes of Figures 25A-25B.

図26A~図26Uは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。図27A~図27Cは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。図28A~図28Bは、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。図26A~図26Uのユーザインタフェースは、図27A~図27C及び図28A~図28Bのプロセスを含む後述のプロセスを示すために使用される。 26A-26U illustrate exemplary user interfaces for managing media using an electronic device, according to some embodiments. 27A-27C are flow diagrams illustrating methods for managing media using an electronic device, according to some embodiments. 28A-28B are flow diagrams illustrating methods for providing guidance while capturing media. The user interfaces of Figures 26A-26U are used to illustrate the processes described below, including the processes of Figures 27A-27C and Figures 28A-28B.

図29A~図29Pは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。図30A~図30Cは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。図29A~図29Pのユーザインタフェースは、図30A~図30Cのプロセスを含む後述のプロセスを示すために使用される。 29A-29P illustrate exemplary user interfaces for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. 30A-30C are flow diagrams illustrating methods for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. The user interfaces of Figures 29A-29P are used to illustrate the processes described below, including the processes of Figures 30A-30C.

図31A~図31Iは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図32A~図32Cは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。図31A~図31Iのユーザインタフェースは、図32A~図32Cのプロセスを含む後述のプロセスを示すために使用される。 31A-31I illustrate exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments. 32A-32C are flow diagrams illustrating methods for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. The user interfaces of Figures 31A-31I are used to illustrate the processes described below, including the processes of Figures 32A-32C.

図33A~図33Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。図34A~図34Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図33A~図33Qのユーザインタフェースは、図34A~図34Bのプロセスを含む後述のプロセスを示すために使用される。 33A-33Q illustrate exemplary user interfaces for changing zoom levels using an electronic device, according to some embodiments. 34A-34B are flow diagrams illustrating methods for changing zoom levels using an electronic device, according to some embodiments. The user interfaces of Figures 33A-33Q are used to illustrate the processes described below, including the processes of Figures 34A-34B.

図35A~図35Iは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。図36A~図36Bは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。図35A~図35Iのユーザインタフェースは、図36A~図36Bのプロセスを含む後述のプロセスを示すために使用される。 35A-35I illustrate exemplary user interfaces for accessing media capture controls using an electronic device, according to some embodiments. 36A-36B are flow diagrams illustrating methods for accessing media capture controls using an electronic device, according to some embodiments. The user interfaces of Figures 35A-35I are used to illustrate the processes described below, including the processes of Figures 36A-36B.

図37A~図37AAは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。図38A~図38Cは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。図37A~図37AAのユーザインタフェースは、図38A~図38Cのプロセスを含む後述のプロセスを示すために使用される。 37A-37AA illustrate exemplary user interfaces for automatically adjusting captured media using an electronic device, according to some embodiments. 38A-38C are flow diagrams illustrating methods for automatically adjusting captured media using an electronic device, according to some embodiments. The user interfaces of Figures 37A-37AA are used to illustrate the processes described below, including the processes of Figures 38A-38C.

図39A~図39Qは、いくつかの実施形態による、電子デバイスを使用してメディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。図40A~図40Bは、いくつかの実施形態による、電子デバイスを使用してメディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。図39A~図39Qのユーザインタフェースは、図40A~図40Bのプロセスを含む後述のプロセスを示すために使用される。 39A-39Q illustrate exemplary user interfaces for providing guidance while capturing media using an electronic device, according to some embodiments. 40A-40B are flow diagrams illustrating methods for providing guidance while capturing media using an electronic device, according to some embodiments. The user interfaces of Figures 39A-39Q are used to illustrate the processes described below, including the processes of Figures 40A-40B.

図41A~図41Fは、いくつかの実施形態による、電子デバイスを使用して1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。図42A~図42Bは、いくつかの実施形態による、電子デバイスを使用して1組の条件に基づいてメディアキャプチャモードを自動的に管理するための方法を示すフロー図である。図41A~図41Fのユーザインタフェースは、図42A~図42Bのプロセスを含む後述のプロセスを示すために使用される。 41A-41F illustrate exemplary user interfaces for automatically managing media capture modes based on a set of conditions using an electronic device, according to some embodiments. 42A-42B are flow diagrams illustrating methods for automatically managing media capture modes based on a set of conditions using an electronic device, according to some embodiments. The user interfaces of Figures 41A-41F are used to illustrate the processes described below, including the processes of Figures 42A-42B.

以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 Although the following description uses terms such as "first," "second," etc. to describe various elements, these elements should not be limited by those terms. These terms are only used to distinguish one element from another. For example, a first touch could be referred to as a second touch, and similarly a second touch could be referred to as a first touch, without departing from the scope of various described embodiments. Both the first touch and the second touch are touches, but they are not the same touch.

本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙されたアイテムのうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments provided herein is for the purpose of describing particular embodiments only and is not intended to be limiting. In the description of the various embodiments described and in the appended claims, the singular forms "a," "an," and "the" are intended to include the plural as well, unless the context clearly dictates otherwise. Also, as used herein, the term "and/or" is understood to refer to and include any and all possible combinations of one or more of the associated listed items. want to be The terms "includes," "including," "comprises," and/or "comprising," as used herein, refer to the features mentioned, specifying the presence of an integer, step, operation, element, and/or component, but specifying the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof It will be further understood that no exclusions are made.

「~の場合(if)」という用語は、任意選択的に、文脈に応じて、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。 The term "if" is optionally used, depending on the context, "when" or "upon" or "in "response to determining" or "in response to detecting". Similarly, the phrases "if it is determined" or "if [a stated condition or event] is detected" are optional. literally, depending on the context, "upon determining" or "in response to determining", or "when [statement or event] is detected “upon detecting [the stated condition or event]” or “in response to detecting [the stated condition or event]”.

電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Embodiments of electronic devices, user interfaces for such devices, and associated processes of using such devices are described. In some embodiments, the device is a portable communication device such as a mobile phone that also includes PDA functionality and/or other functionality such as music player functionality. Exemplary embodiments of portable multifunction devices include those manufactured by Apple Inc. of Cupertino, Calif. including, but not limited to, iPhone®, iPod Touch®, and iPad® devices from Apple Inc. Optionally, other portable electronic devices such as laptop or tablet computers with touch-sensitive surfaces (eg, touchscreen displays and/or touchpads) are also used. It should also be appreciated that in some embodiments the device is not a portable communication device, but a desktop computer with a touch-sensitive surface (eg, a touchscreen display and/or touchpad).

以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices such as physical keyboards, mice and/or joysticks.

デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。 Devices are typically used in drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephony applications, video conferencing applications, e-mail applications, instant messaging applications, training Various applications such as one or more of a support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application are supported.

本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, the common physical architecture of the device (such as the touch-sensitive surface) optionally supports various applications with a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Attention is now directed to embodiments of portable devices with touch-sensitive displays. FIG. 1A is a block diagram illustrating a portable multifunction device 100 having a touch-sensitive display system 112, according to some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience and is known or sometimes referred to as a "touch-sensitive display system." Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripherals interface 118, RF circuitry 108, audio circuitry. 110 , speaker 111 , microphone 113 , input/output (I/O) subsystem 106 , other input control devices 116 , and external ports 124 . Device 100 optionally includes one or more photosensors 164 . Device 100 optionally includes one or more contact strength sensors 165 that detect the strength of contact on device 100 (eg, a touch-sensitive surface such as touch-sensitive display system 112 of device 100). Device 100 optionally generates tactile output on device 100 (eg, on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touchpad 355 of device 300). One or more tactile output generators 167 are included. These components optionally communicate via one or more communication buses or signal lines 103 .

本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を上回っているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超過したかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on the touch-sensitive surface refers to the force or pressure (force per unit area) of contact (e.g., finger contact) on the touch-sensitive surface, or Refers to a proxy for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a range of values including at least four distinct values, and more typically including several hundred (eg, at least 256) distinct values. The strength of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors under or adjacent to the touch-sensitive surface are optionally used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, weighted average) to determine the estimated force of the contact. Similarly, the stylus' pressure-sensitive tip is optionally used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the touch-sensitive surface proximate to the contact, and/or the resistance and/or change in the touch-sensitive surface proximate to the contact. /or its variation is optionally used as a proxy for contact force or pressure on the touch-sensitive surface. In some implementations, the alternate measure for contact force or pressure is used directly to determine whether an intensity threshold is exceeded (e.g., the intensity threshold is in units corresponding to the alternate measure). ). In some implementations, the surrogate measurement for contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether a strength threshold has been exceeded ( For example, the intensity threshold is the pressure threshold measured in units of pressure). to display affordances (e.g., on a touch-sensitive display) and/or measure user input (e.g., on a touch-sensitive display, touch-sensitive surface, or Not normally accessible by the user on reduced size devices with limited area for receiving (via physical/mechanical controls such as knobs or buttons) It allows the user access to additional device functions that are available.

本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" refers to the physical displacement of the device relative to its previous position, which is to be detected by the user in the user's tactile sense. refers to the physical displacement of a component (eg, a touch-sensitive surface) of a device relative to another component of the device (eg, a housing), or the displacement of a component relative to the device's center of mass. For example, in situations where a device or device component is in contact with a touch-sensitive surface of a user (e.g., fingers, palm, or other part of the user's hand), tactile sensations generated by physical displacement The output will be interpreted by the user as a tactile sensation corresponding to a perceived change in the physical properties of the device or device components. For example, movement of a touch-sensitive surface (eg, touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, a user can "down-click" or "up-click" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's motion. ” and other tactile sensations. As another example, movement of the touch-sensitive surface is optionally interpreted or perceived by the user as "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be done. Such a user's interpretation of touch depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Thus, when a tactile output is described as corresponding to a particular sensory perception of a user (e.g., "upclick", "downclick", "roughness"), the generated tactile A sensory output corresponds to the physical displacement of a device, or a component of a device, that produces the described sensory perception of a typical (or average) user.

デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。 Device 100 is only one example of a portable multifunction device; device 100 optionally has more or fewer components than those shown; It should be understood that there are combinations of more than one component, or optionally different configurations or arrangements of those components. The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。 Memory 102 optionally includes high speed random access memory and optionally non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. Memory controller 122 optionally controls access to memory 102 by other components of device 100 .

周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させるか、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。 Peripheral interface 118 may be used to couple input and output peripherals of the device to CPU 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions and process data for device 100 . In some embodiments, peripherals interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. FIG. In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実施するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution、Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 Radio frequency (RF) circuitry 108 transmits and receives RF signals, also called electromagnetic signals. RF circuitry 108 converts electrical signals to electromagnetic signals or vice versa to communicate with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 optionally includes well-known circuits for performing these functions, including but not limited to an antenna system, an RF transceiver, one or more amplifiers, Tuner, one or more oscillators, digital signal processor, CODEC chipset, subscriber identity module (SIM) card, memory, and the like. The RF circuit 108 is optionally connected to the Internet, also known as the World Wide Web (WWW), an intranet, and/or a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network. (metropolitan area network, MAN) and other devices via wireless communication. RF circuitry 108 optionally includes well-known circuitry for detecting a near field communication (NFC) field, such as by a short-range communication radio. Wireless communication optionally includes, but is not limited to, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high speed downlink high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only, EV-DO, HSPA, HSPA+, dual cell HSPA (Dual-Cell HSPA, DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiplex code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth®, Bluetooth Low Energy (BTLE®), Wireless Fidelity, Wi-Fi (eg, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n, and/or IEEE 802.11ac), voice over Internet Protocol, VoIP), Wi-MAX®, protocols for email (e.g. Internet message access protocol (IMAP) and/or post office protocol (POP)), instant messaging (e.g. extensible messaging and presence protocol XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)), and multiple communication standards, protocols, including Short Message Service (SMS), or any other suitable communication protocol, including communication protocols not yet developed as of the filing date of this specification; and techniques.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。 Audio circuitry 110 , speaker 111 , and microphone 113 provide an audio interface between the user and device 100 . Audio circuitry 110 receives audio data from peripherals interface 118 , converts the audio data to electrical signals, and transmits the electrical signals to speaker 111 . The speaker 111 converts the electrical signal into human audible sound waves. Audio circuitry 110 also receives electrical signals converted from sound waves by microphone 113 . Audio circuitry 110 converts the electrical signals to audio data and transmits the audio data to peripherals interface 118 for processing. Audio data is optionally retrieved from and/or transmitted to memory 102 and/or RF circuitry 108 by peripherals interface 118 . In some embodiments, audio circuitry 110 also includes a headset jack (eg, 212 in FIG. 2). A headset jack is provided between the audio circuitry 110 and a detachable audio input/output peripheral, such as an output-only headphone or a headset with both an output (e.g., monaural or binaural headphones) and an input (e.g., a microphone). provides an interface for

I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的な実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。 I/O subsystem 106 couples input/output peripherals on device 100 , such as touch screen 112 and other input control devices 116 , to peripherals interface 118 . I/O subsystem 106 optionally includes one for display controller 156, light sensor controller 158, depth camera controller 169, intensity sensor controller 159, tactile feedback controller 161, and other input or control devices. The above input controller 160 is included. One or more input controllers 160 receive/send electrical signals to/from other input control devices 116 . Other input control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, the input controller(s) 160 is optionally coupled (or not bound to either). One or more buttons (eg, 208 in FIG. 2) optionally include up and down buttons for volume control of speaker 111 and/or microphone 113 . The one or more buttons optionally include push buttons (eg, 206 in FIG. 2).

全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。 U.S. Patent Application No. 11/322,549, "Unlocking a Device by Performing Gestures on an Unlock Image," filed Dec. 23, 2005, which is incorporated herein by reference in its entirety, U.S. Patent No. 7, 657,849, a quick press of the push button optionally disengages the lock on the touch screen 112, or optionally using gestures on the touch screen. Start the process of unlocking the device. A longer press of a push button (eg, 206) optionally turns power to device 100 on or off. The functionality of one or more of the buttons is optionally customizable by the user. Touch screen 112 is used to implement virtual or soft buttons and one or more soft keyboards.

タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。 Touch-sensitive display 112 provides an input and output interface between the device and the user. Display controller 156 receives electrical signals from touchscreen 112 and/or transmits electrical signals to touchscreen 112 . Touch screen 112 displays visual output to the user. This visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively "graphics"). In some embodiments, some or all of the visual output optionally corresponds to user interface objects.

タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットとともに)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。 Touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touchscreen 112 and display controller 156 (together with any associated modules and/or instruction sets in memory 102) detect contact (and any movement or interruption of contact) on touchscreen 112 and detect detected contact. Converts interaction with user interface objects (eg, one or more softkeys, icons, web pages, or images) displayed on touch screen 112 . In an exemplary embodiment, the contact point between touch screen 112 and the user corresponds to the user's finger.

タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。 The touch screen 112 optionally uses LCD (Liquid Crystal Display) technology, LPD (Light Emitting Polymer Display) technology, or LED (Light Emitting Diode) technology, although other display technologies are also used in other embodiments. be. The touchscreen 112 and display controller 156 optionally use, but are not limited to, capacitive, resistive, infrared, and surface acoustic wave technologies, and one or more contact points with the touchscreen 112. Any of a number of now known or later developed touch sensing technologies, including other proximity sensor arrays or other elements that determine, are used to detect contact and any movement or interruption thereof. In an exemplary embodiment, Apple Inc. of Cupertino, Calif. Projected mutual-capacitive sensing technology is used, such as that found in the iPhone® and iPod Touch® from Apple.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024(A1)号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。 The touch-sensitive display in some embodiments of touch screen 112 is optionally disclosed in U.S. Pat. , 570,557 (Westerman et al.), and/or 6,677,932 (Westerman), and/or the multi-touch sensitive touch described in US Patent Publication No. 2002/0015024 (A1). Similar to pads. However, the touchscreen 112 displays visual output from the device 100, whereas the touch-sensitive touchpad does not provide visual output.

タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。 The touch sensitive display in some embodiments of the touch screen 112 is described in (1) U.S. Patent Application Serial No. 11/381,313, "Multipoint Touch Surface Controller," filed May 2, 2006, and (2) May 2004. U.S. Patent Application Serial No. 10/840,862, "Multipoint Touchscreen," filed May 6, 2004; (4) U.S. Patent Application Serial No. 11/048,264, filed January 31, 2005; "Gestures For Touch Sensitive Input Devices"; 038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices," (6) U.S. patent application Ser. User Interface", (7) U.S. Patent Application Serial No. 11/228,700, filed Sep. 16, 2005; No. 11/228,737, "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard," and (9) U.S. patent application Ser. Hand-Held Device" application. All of these applications are incorporated herein by reference in their entireties.

タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適したオブジェクト又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。 Touch screen 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. A user optionally contacts touch screen 112 using any suitable object or appendage, such as a stylus, finger, or the like. In some embodiments, the user interface is designed to primarily deal with finger-based contacts and gestures, which is not as precise as stylus-based input due to the larger finger contact area on the touchscreen. may not be. In some embodiments, the device converts coarse finger input into precise pointer/cursor positions or commands to perform actions desired by the user.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。 In some embodiments, in addition to the touchscreen, device 100 optionally includes a touchpad for activating or deactivating certain functions. In some embodiments, a touchpad is a touch-sensitive area of a device that displays no visual output, unlike a touchscreen. The touchpad is optionally a touch-sensitive surface separate from the touchscreen 112 or an extension of the touch-sensitive surface formed by the touchscreen.

デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。 Device 100 also includes a power system 162 that provides power to the various components. The power system 162 optionally includes a power management system, one or more power sources (eg, batteries, alternating current (AC)), a recharging system, power failure detection circuitry, a power converter or inverter, power status indicators (eg, lighting diodes (LEDs)) and any other component associated with the generation, management, and distribution of power within a portable device.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に配置され、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面に配置され、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more optical sensors 164 . FIG. 1A shows a photosensor coupled to photosensor controller 158 in I/O subsystem 106 . Optical sensor 164 optionally includes a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) phototransistor. Optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. Optical sensor 164, in conjunction with imaging module 143 (also called a camera module), optionally captures still images or video. In some embodiments, the optical sensors are placed on the back side of the device 100, as opposed to the touch screen display 112 on the front side of the device, so the touch screen display is used for still and/or video image capture. It is effective to use it as a viewfinder for In some embodiments, the light sensor is placed on the front of the device so that a user's image is optionally obtained for videoconferencing, and the user can view other videoconference participants on the touch screen display. see above. In some embodiments, the position of the light sensor 164 can be changed by the user (e.g., by rotating the lens and sensor within the device housing), so that a single light sensor 164 can be used as a touch screen display. It is also used for teleconferencing and for capturing still and/or video images.

デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得されるように、及び、深度マップデータを有する自撮り画像をキャプチャするように、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。 Device 100 also optionally includes one or more depth camera sensors 175 . FIG. 1A shows a depth camera sensor coupled to depth camera controller 169 within I/O subsystem 106 . Depth camera sensor 175 receives data from the environment and creates a three-dimensional model of an object (eg, face) in the scene from a viewpoint (eg, depth camera sensor). In some embodiments, in conjunction with imaging module 143 (also referred to as a camera module), depth camera sensor 175 optionally determines depth maps of different portions of the image captured by imaging module 143. used for In some embodiments, an image of the user with depth information is optionally acquired for the videoconference while the user is viewing other videoconference participants on the touch screen display. , and a depth camera sensor is placed on the front of the device 100 to capture a selfie image with depth map data. In some embodiments, depth camera sensor 175 is located on the back of the device, or on the back and front of device 100 . In some embodiments, the position of the depth camera sensor 175 can be changed by the user (eg, by rotating the lens and sensor within the device housing) so that the depth camera sensor 175 can be used in conjunction with the touch screen display. , for video conferencing as well as for capturing still and/or video images.

いくつかの実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内のオブジェクトの距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが配置されている、その視点のZ軸における位置を定義するものである。いくつかの実施形態では、深度マップはピクセルで構成されており、各ピクセルは、値(例えば、0~255)によって定義される。例えば、値「0」は、「3次元」シーン内で最も遠い場所に配置されているピクセルを表し、値「255」は、その「3次元」シーン内で視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに配置されているピクセルを表す。他の実施形態では、深度マップは、シーン内のオブジェクトと視点の平面との間の距離を表す。いくつかの実施形態では、深度マップは、深度カメラから見た、対象オブジェクトの様々な特徴部の相対深度(例えば、ユーザの顔面の目、鼻、口、耳の相対深度)に関する情報を含む。いくつかの実施形態では、深度マップは、z方向での対象オブジェクトの輪郭をデバイスが決定することを可能にする、情報を含む。 In some embodiments, a depth map (eg, depth map image) contains information (eg, values) about the distance of objects in a scene from a viewpoint (eg, camera, light sensor, depth camera sensor). In one embodiment of the depth map, each depth pixel defines the Z-axis position of the viewpoint where its corresponding two-dimensional pixel is located. In some embodiments, the depth map is made up of pixels, each pixel defined by a value (eg, 0-255). For example, the value '0' represents the farthest located pixel in the '3D' scene, and the value '255' represents the point of view (e.g., camera, light sensor, Depth camera sensor) represents the closest located pixel. In other embodiments, the depth map represents the distance between objects in the scene and the plane of the viewpoint. In some embodiments, the depth map contains information about the relative depths of various features of the target object (eg, the relative depths of the eyes, nose, mouth, ears on the user's face) as seen by the depth camera. In some embodiments, the depth map contains information that allows the device to determine the contour of the target object in the z-direction.

デバイス100は、任意選択的に、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 optionally also includes one or more contact intensity sensors 165 . FIG. 1A shows a contact intensity sensor coupled to intensity sensor controller 159 within I/O subsystem 106 . Contact intensity sensor 165 may be one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezoelectric force sensors, optical force sensors, capacitive touch-sensitive surfaces, or other intensity sensors (e.g., touch-sensitive surface A sensor used to measure the force (or pressure) of the on contact is optionally included. Contact intensity sensor 165 receives contact intensity information (eg, pressure information or a proxy for pressure information) from the environment. In some embodiments, at least one contact intensity sensor is juxtaposed or proximate to a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back side of device 100 , opposite touch screen display 112 located on the front side of device 100 .

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」、第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。 Device 100 also optionally includes one or more proximity sensors 166 . FIG. 1A shows proximity sensor 166 coupled to peripherals interface 118 . Alternatively, proximity sensor 166 is optionally coupled to input controller 160 within I/O subsystem 106 . Proximity sensor 166 is optionally disclosed in U.S. patent application Ser. 「Proximity Detector In Handheld Device」、第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、 and Serial No. 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals," which applications are hereby incorporated by reference in their entireties. In some embodiments, the proximity sensor turns off and disables the touchscreen 112 when the multifunction device is placed near the user's ear (e.g., when the user is making a phone call). .

デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されていると並置されている、又はそれに近接されており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。 Device 100 also optionally includes one or more tactile output generators 167 . FIG. 1A shows a tactile output generator coupled to haptic feedback controller 161 within I/O subsystem 106 . Tactile output generator 167 optionally includes one or more electroacoustic devices such as speakers or other audio components, and/or motors, solenoids, electroactive polymers, piezoelectric actuators, electrostatic actuators, or other electromechanical devices that convert energy into linear motion, such as tactile output-producing components of (eg, components that convert electrical signals to tactile outputs on the device). Contact intensity sensor 165 receives tactile feedback generation instructions from haptic feedback module 133 and generates a tactile output on device 100 that can be sensed by a user of device 100 . In some embodiments, at least one tactile output generator is located, juxtaposed with, or in close proximity to a touch-sensitive surface (eg, touch-sensitive display system 112), and optionally and generating tactile output by moving the touch-sensitive surface vertically (e.g., in/out of the surface of device 100) or horizontally (e.g., back and forth in the same plane as the surface of device 100). . In some embodiments, at least one tactile output generator sensor is located on the back of device 100 opposite touch screen display 112 located on the front of device 100 .

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の位置及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。 Device 100 also optionally includes one or more accelerometers 168 . FIG. 1A shows accelerometer 168 coupled to peripherals interface 118 . Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106 . Accelerometer 168 is optionally disclosed in U.S. Patent Publication No. 20050190059, "Acceleration-based Theft Detection System for Portable Electronic Devices," and U.S. Patent Publication No. 20050190059, both of which are hereby incorporated by reference in their entirety. 20060017692, "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer". In some embodiments, information is displayed on the touch screen display in portrait or landscape view based on analysis of data received from one or more accelerometers. In addition to the accelerometer(s) 168, the device 100 includes a magnetometer and a GPS (or GLONASS or other global navigation system) for obtaining information about the position and orientation (e.g., longitudinal or lateral) of the device 100. system) optionally includes a receiver.

いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in memory 102 include an operating system 126, a communication module (or instruction set) 128, a touch/motion module (or instruction set) 130, a graphics module (or instruction set). ) 132 , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 , and an application (or instruction set) 136 . Additionally, in some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores device/global internal state 157, as shown in FIGS. 1A and 3. FIG. The device/global internal state 157 is an active application state that indicates which, if any, applications are currently active, and which applications, views, or other information may be displayed in various areas of the touchscreen display 112 . display state indicating occupancy; sensor state, which includes information obtained from the device's various sensors and input control device 116; and positional information regarding the location and/or orientation of the device.

オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。 operating system 126 (e.g., Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks®) contain various software components and/or drivers that control and manage normal system tasks (e.g., memory management, storage device control, power management, etc.) It facilitates communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。 Communication module 128 facilitates communication with other devices via one or more external ports 124 and includes various software components for processing data received by RF circuitry 108 and/or external ports 124 . include. External port 124 (e.g., Universal Serial Bus (USB), FIREWIRE, etc.) to couple to other devices, either directly or indirectly through a network (e.g., Internet, wireless LAN, etc.). are adapted. In some embodiments, the external port is a multi-pin (e.g., , 30 pin) connector.

接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 optionally detects contact with touch screen 112 (in conjunction with display controller 156) and other touch-sensitive devices (eg, touchpads or physical click wheels). The contact/motion module 130 determines whether contact has occurred (eg, detects a finger down event), the strength of the contact (eg, force or pressure of contact, or alternatives to force or pressure of contact). determining whether there is movement of the contact and tracking movement across the touch-sensitive surface (e.g., detecting one or more events of dragging a finger); Includes various software components for performing various operations related to detecting contact, such as determining whether contact has stopped (e.g., detecting a finger-up event or interruption of contact) . Contact/motion module 130 receives contact data from the touch-sensitive surface. Determining movement of the contact point, represented by the set of contact data, optionally includes speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and direction) of the contact point. and/or change of direction). These operations are optionally applied to single contacts (eg, single-finger contacts) or multiple simultaneous contacts (eg, “multi-touch”/multiple-finger contacts). In some embodiments, contact/motion module 130 and display controller 156 detect contact on the touchpad.

いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1組の1つ以上の強度閾値を使用する。いくつかの実施形態では、強度閾値の少なくともサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。 In some embodiments, the contact/motion module 130 is configured to: A set of one or more intensity thresholds is used. In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are determined by the physical hardware of the device 100 rather than being determined by the activation threshold of a particular physical actuator). can be adjusted without changing). For example, the mouse "click" threshold for a trackpad or touchscreen display can be set to any of a wide range of predefined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, the user of the device is provided with software settings that adjust one or more of a set of intensity thresholds (e.g., a system-level click "strength" parameter allows individual intensity by adjusting thresholds and/or adjusting multiple intensity thresholds at once).

接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。 Contact/motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different movements, timing, and/or strength of the detected contacts). Thus, gestures are optionally detected by detecting specific contact patterns. For example, detecting a finger tap gesture detects a finger down event followed by a finger up (lift off) event at the same (or substantially the same) position as the finger down event (e.g., icon position). Including detecting. As another example, detecting a finger swipe gesture on a touch-sensitive surface includes detecting a finger down event followed by one or more finger drag events followed by a finger up (lift off). Including detecting events.

グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。 The graphics module 132 can be used on the touch screen 112 or other display, including components for changing the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of displayed graphics. includes various known software components for rendering and displaying graphics in As used herein, the term "graphics" includes, but is not limited to, text, web pages, icons (such as user interface objects including softkeys), digital images, videos, animations, etc. Contains any object that can be displayed.

いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データとともに、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力する画面の画像データを生成する。 In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. The graphics module 132 receives, from an application or the like, one or more codes specifying the graphics to be displayed, along with coordinate data and other graphics characteristic data as appropriate, and then outputs to the display controller 156. Generates image data for the screen to be displayed.

触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の位置で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。 Haptic feedback module 133 is used by tactile output generator(s) 167 to generate tactile outputs at one or more locations on device 100 in response to user interaction with device 100. Contains various software components for generating instructions.

テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other application requiring text input). application) provides a soft keyboard for entering text.

GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発信用に電話138に、画像/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。 GPS module 135 determines the location of the device and uses this information in various applications (e.g., to phone 138 for location-based dialing, to camera 143 as image/video metadata, and to applications that provide location-based services such as weather widgets, local yellow pages widgets, and map/navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or subsets or supersets thereof.
- the contacts module 137 (sometimes called an address book or contact list);
a telephone module 138;
a teleconferencing module 139,
- email client module 140;
an instant messaging (IM) module 141;
training support module 142,
- a camera module 143 for still and/or video images;
an image management module 144;
● video player module,
● music player module,
the browser module 147,
a calendar module 148;
- Optionally weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other user-obtained and user-created widgets a widget module 149 including one or more of 149-6;
- a widget creation module 150 for creating user-created widgets 149-6;
a search module 151,
- a video and music player module 152 that integrates a video player module and a music player module;
memo module 153,
- map module 154 and/or
Online video module 155;

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 that are optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA enabled applications, cryptography, digital writing. Rights management, speech recognition, and speech replication.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、実際の住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。 In conjunction with touch screen 112, display controller 156, contact/motion module 130, graphics module 132, and text input module 134, contact module 137 optionally adds name(s) to the address book. remove names from your address book; associate phone number(s), email address(es), physical address(es), or other information with names; associating with names, sorting and sorting names, providing phone numbers or email addresses to initiate and/or facilitate communication by phone 138, videoconferencing module 139, email 140 or IM 141, etc. are used to manage an address book or contact list (eg, stored within application internal state 192 of contact module 137 in memory 102 or memory 370).

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときに接続を切る又は電話を切るために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with RF circuitry 108, audio circuitry 110, speaker 111, microphone 113, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, telephone module 138 is optionally , enter a character sequence corresponding to a telephone number, access one or more telephone numbers in the contacts module 137, modify the entered telephone number, dial the respective telephone number, conduct a conversation, and end the conversation. Used to disconnect or hang up when As previously mentioned, wireless communications optionally use any of a number of communication standards, protocols, and techniques.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。 RF circuit 108, audio circuit 110, speaker 111, microphone 113, touch screen 112, display controller 156, light sensor 164, light sensor controller 158, touch/motion module 130, graphics module 132, text input module 134, contact module 137. , and telephony module 138, the videoconferencing module 139 provides executable instructions for initiating, conducting, and terminating a videoconference between the user and one or more other participants according to user instructions. include.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, email client module 140 composes and sends emails in response to user commands. , including executable instructions for receiving and managing. In conjunction with image management module 144 , email client module 140 greatly facilitates the creation and sending of emails with still or video images captured by camera module 143 .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, instant messaging module 141 allows the input of character sequences corresponding to instant messages, previously modification of entered characters, transmission of respective instant messages (e.g. Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for telephony-based instant messages, or Internet (using XMPP, SIMPLE, or IMPS for instant messaging based), receiving instant messages, and viewing received instant messages. In some embodiments, instant messages sent and/or received are optionally graphics, photos, audio files, video files supported by MMS and/or Enhanced Messaging Service (EMS). , and/or other attachments. As used herein, "instant messaging" refers to telephony-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., using XMPP, SIMPLE, or IMPS). It refers to both

トレーニングサポートモジュール142は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及びミュージックプレーヤモジュールと連動して、(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)トレーニングを作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。 Training support module 142 works in conjunction with RF circuit 108, touch screen 112, display controller 156, contact/motion module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and music player module to Create workouts (e.g., with time, distance, and/or calorie burn goals), communicate with training sensors (sports devices), receive training sensor data, and calibrate sensors used to monitor training , selecting and playing music for training, and displaying, storing, and transmitting training data.

タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, light sensor(s) 164, light sensor controller 158, touch/motion module 130, graphics module 132, and image management module 144, camera module 143 captures still images or Contains executable instructions for capturing video (including a video stream) and storing it in memory 102 , modifying the characteristics of a still image or video, or deleting a still image or video from memory 102 .

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 arranges, modifies (or modifies) still and/or video images. edit), or other manipulation, labeling, deletion, presentation (eg, in a digital slideshow or album), and storage.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。 In conjunction with the RF circuit 108, the touch screen 112, the display controller 156, the touch/motion module 130, the graphics module 132, and the text input module 134, the browser module 147 provides web pages or portions thereof and links to web pages. Contains executable instructions for browsing the Internet according to user instructions, including retrieving, linking, receiving, and displaying attachments and other files.

カレンダモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、予定表の項目、to doリストなど)を作成し、表示し、修正し、記憶するための実行可能な命令を含む。 Calendar module 148 cooperates with RF circuit 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, email client module 140, and browser module 147 to display user instructions. and executable instructions for creating, displaying, modifying, and storing calendars and data associated with calendars (eg, agenda items, to-do lists, etc.) in accordance with the .

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded and used by the user. (eg weather widget 149-1, stocks widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) or mini-applications created by users (eg , user created widget 149-6). In some embodiments, widgets include HTML (Hypertext Markup Language) files, CSS (Cascading Style Sheets) files, and JavaScript files. In some embodiments, widgets include XML (Extensible Markup Language) files and JavaScript files (eg, Yahoo! widgets).

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェット作成モジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, and browser module 147, widget creation module 150 optionally creates widgets. (eg, widgetize user-specified portions of web pages).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, search module 151 provides one or more search criteria (e.g., one or more user executable instructions for searching for text, music, sounds, images, videos, and/or other files in memory 102 that match a specified search term).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, and browser module 147, video and music player module 152 can play MP3 or AAC files. Executable instructions that enable a user to download and play pre-recorded music and other sound files stored in one or more file formats such as, and videos (on touch screen 112 or via external port 124). It contains executable instructions for displaying, presenting, or otherwise reproducing (on an external display connected via an external display). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (trademark of Apple Inc.).

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, and text input module 134, notes module 153 executes to create and manage notes, to-do lists, etc. according to user instructions. Contains possible instructions.

RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその付近の店舗及び他の対象地点に関するデータ、並びに他の位置ベースのデータ)を受信、表示、修正、及び記憶するために使用される。 In conjunction with RF circuitry 108, touch screen 112, display controller 156, touch/motion module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 optionally: Receive, display, modify and, in accordance with user instructions, maps and data associated with maps (e.g., data regarding driving directions, stores and other points of interest at or near a particular location, and other location-based data) used to remember.

タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。 In conjunction with touch screen 112, display controller 156, touch/motion module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140, and browser module 147, the online Video module 155 allows users to access, browse, receive (eg, by streaming and/or downloading), and play (eg, on a touch screen or connected via external port 124) specific online videos. on an external display), sending e-mails with links to specific online videos, and H.E. contains instructions that allow for other management of online video in one or more file formats, such as H.264. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send links to specific online videos. Additional discussion of online video applications is provided in U.S. Provisional Patent Application No. 60/936,562, entitled "Portable Multifunction Device," filed Jun. 20, 2007, the contents of which are incorporated herein by reference in their entirety. ,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」においてcan see.

上記で識別されたモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で識別されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the modules and applications identified above perform one or more of the functions described above and the methods described herein (e.g., the computer-implemented methods and other information processing methods described herein). Corresponds to a set of executable instructions. These modules (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules are optionally combined in various embodiments. modified or otherwise reconfigured. For example, a video player module is optionally combined with a music player module into a single module (eg, video and music player module 152 of FIG. 1A). In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. In addition, memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, device 100 is a device in which operation of a given set of functions is performed solely through a touchscreen and/or touchpad. number of physical input control devices (push buttons, dials, etc.) is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。 A default set of functions performed only through a touchscreen and/or touchpad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates device 100 to the main menu, home menu, or root menu from any user interface displayed on device 100 when touched by a user. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu buttons are physical push buttons or other physical input control devices rather than touchpads.

図1Bは、いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。 FIG. 1B is a block diagram illustrating exemplary components for event processing, according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) includes event sorter 170 (eg, within operating system 126) and respective applications 136-1 (eg, the aforementioned applications 137-151, 155, any of 380-390).

イベントソータ170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーション(単数又は複数)が現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。 Event sorter 170 receives event information and determines which application 136-1 to deliver the event information to and application view 191 of application 136-1. Event sorter 170 includes event monitor 171 and event dispatcher module 174 . In some embodiments, application 136-1 includes application internal state 192 that indicates the current application view(s) displayed over touch-sensitive display 112 when the application is active or running. . In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 contains event information. is used by event sorter 170 to determine the application view 191 to which the event is delivered.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを有効化する状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 indicates resume information to be used when application 136-1 resumes execution, information being displayed by application 136-1, or a user ready to display information. Additional features such as interface state information, one or more of a state queue that enables the user to return to a previous state or view of application 136-1, and a redo/undo queue of previous actions taken by the user. Contains information.

イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripherals interface 118 . Event information includes information about sub-events (eg, a user touch on touch-sensitive display 112 as part of a multi-touch gesture). Peripherals interface 118 transmits information it receives from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (via audio circuitry 110). . Information that peripherals interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応答して、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。 In some embodiments, event monitor 171 sends requests to peripherals interface 118 at predetermined intervals. In response, peripherals interface 118 transmits event information. In other embodiments, peripherals interface 118 transmits event information only when there is a significant event (eg, receipt of input above a predetermined noise threshold and/or exceeding a predetermined duration).

いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。 In some embodiments, event sorter 170 also includes hit view determination module 172 and/or active event recognizer determination module 173 .

ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。 Hit view determination module 172 provides software procedures for determining where a sub-event occurred within one or more views when touch-sensitive display 112 displays more than one view. Views are made up of controls and other elements that the user can see on the display.

アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチに基づくジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is the set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of the respective application) in which the touch is detected optionally corresponds to a program level within the application's program hierarchy or view hierarchy. For example, the lowest level view in which touch is detected is optionally called the hit view, and the set of events recognized as appropriate input optionally initiates touch-based gestures. The determination is based at least in part on the hit view of the initial touch.

ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき、階層内の最下位のビューとしてのヒットビューを識別する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって識別されると、ヒットビューは、典型的には、ヒットビューとして識別されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to sub-events of touch-based gestures. When an application has multiple views arranged in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view in which the initiating sub-event (eg, the first sub-event in the sequence of sub-events forming the event or potential event) takes place. When a hit view is identified by hit view determination module 172, the hit view typically receives all sub-events related to the same touch or input source that was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビューがサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 Active event recognizer determination module 173 determines which views in the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In another embodiment, the active event recognizer determination module 173 determines that all views containing the physical location of the sub-event are actively involved views, thus all actively involved views are: Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely localized to an area associated with one particular view, views higher up in the hierarchy still remain actively involved views.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include active event recognizer determination module 173 , event dispatcher module 174 distributes event information to event recognizers determined by active event recognizer determination module 173 . In some embodiments, the event dispatcher module 174 stores event information obtained by each event receiver 182 in an event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替的に、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170 . Alternatively, application 136 - 1 includes event sorter 170 . In still other embodiments, event sorter 170 is a stand-alone module or part of another module stored in memory 102 such as touch/motion module 130 .

いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。代替的に、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, application 136-1 includes multiple event handlers 190 and one or more application views, each containing instructions for handling touch events that occur within respective views of the application's user interface. 191 included. Each application view 191 of application 136 - 1 includes one or more event recognizers 180 . Typically, each application view 191 includes multiple event recognizers 180 . In other embodiments, one or more of event recognizers 180 are part of separate modules, such as user interface kits or higher-level objects from which application 136-1 inherits methods and other attributes. is. In some embodiments, each event handler 190 processes one or more of data updater 176 , object updater 177 , GUI updater 178 , and/or event data 179 received from event sorter 170 . include. Event handler 190 optionally utilizes or calls data updater 176 , object updater 177 , or GUI updater 178 to update application internal state 192 . Alternatively, one or more of application views 191 include one or more respective event handlers 190 . Also, in some embodiments, one or more of data updater 176 , object updater 177 , and GUI updater 178 are included in each application view 191 .

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognizer 180 receives event information (eg, event data 179) from event sorter 170 and identifies events from this event information. The event recognizer 180 includes an event receiver 182 and an event comparator 184 . In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiver 182 receives event information from the event sorter 170 . Event information includes information about sub-events, such as touches or movement of touches. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event involves touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., portrait to landscape or vice versa), and the event information is the device's current orientation (device (also called the attitude of the

イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば既定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)におけるサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示されたオブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112を横切るタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190に関する情報も含む。 The event comparator 184 compares the event information to predefined event or sub-event definitions and determines the event or sub-event or determines or updates the state of the event or sub-event based on the comparison. . In some embodiments, event comparator 184 includes event definitions 186 . Event definitions 186 include definitions of events (eg, predefined sequences of sub-events), eg, event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events in event (187) include, for example, touch start, touch end, touch movement, touch stop, and multiple touches. In one embodiment, the definition for event 1 (187-1) is a double tap on a displayed object. A double-tap is, for example, a first touch on a display object for a given step (touch start), a first lift-off for a given step (touch end), a second touch on a display object for a given step (touch start), and a second lift-off (end of touch) for a given stage. In another example, the definition of event 2 (187-2) is a drag on a displayed object. Drag includes, for example, touch (or contact) on a displayed object for a given step, movement of touch across touch-sensitive display 112, and lift-off of touch (end of touch). In some embodiments, events also include information about one or more associated event handlers 190 .

いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒット試験を実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベントハンドラを選択する。 In some embodiments, event definitions 187 include definitions of events for respective user interface objects. In some embodiments, event comparator 184 performs hit testing to determine which user interface objects are associated with sub-events. For example, when a touch is detected on touch-sensitive display 112 in an application view in which three user interface objects are displayed on touch-sensitive display 112, event comparator 184 performs a hit test to Determine which of the two user interface objects are associated with the touch (sub-event). If each displayed object is associated with a respective event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, event comparator 184 selects event handlers associated with sub-events and objects that trigger hit testing.

いくつかの実施形態では、それぞれのイベント(187)に対する定義はまた、サブイベントシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の配信を遅延する遅延アクションを含む。 In some embodiments, the definition for each event (187) also includes a delay action that delays the delivery of event information until after it is determined whether the sub-event sequence corresponds to the event recognizer's event type. include.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。 If the respective event recognizer 180 determines that the sequence of sub-events does not match any of the events in the event definition 186, the respective event recognizer 180 enters an event unavailable, event failed, or event terminated state, After that, ignore the next sub-event of the touch-based gesture. In this situation, if there is another event recognizer that remains active for the hit view, that event recognizer will continue to track and process sub-events of the ongoing touch-based gesture.

いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話できるようになっているかを示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 has configurable properties, flags, and/or properties that indicate to actively participating event recognizers how the event delivery system should perform sub-event delivery. or includes metadata 183 with a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or a list. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether sub-events are delivered to various levels in the view hierarchy or program hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates event handlers 190 associated with the event when one or more specific sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to event handlers 190 . Activating the event handler 190 is separate from sending (and deferring sending) the sub-event to each hit view. In some embodiments, the event recognizer 180 populates a flag associated with the recognized event, and the event handler 190 associated with that flag catches the flag and performs a predetermined process.

いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions that deliver event information about the sub-event without activating event handlers. Instead, sub-event delivery instructions deliver event information to event handlers associated with a sequence of sub-events or to actively participating views. A series of sub-events or event handlers associated with actively participating views receive the event information and perform predetermined processing.

いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, the data updater 176 updates phone numbers used by the contacts module 137 or stores video files used by the video player module. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, the object updater 177 creates new user interface objects or updates the positions of user interface objects. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on a touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176 , object updater 177 , and GUI updater 178 . In some embodiments, data updater 176 , object updater 177 , and GUI updater 178 are included in a single module of respective application 136 - 1 or application view 191 . In other embodiments, they are contained in two or more software modules.

タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The foregoing description of event handling of a user's touch on a touch-sensitive display also applies to other forms of user input for operating multifunction device 100 using input devices, all of which are on touch screens. It should be understood that it does not start with . For example, mouse movement and mouse button presses, contact movement such as tapping, dragging, scrolling on touchpads, pen stylus input, devices optionally coupled with single or multiple presses or holds of the keyboard. , verbal commands, detected eye movements, biometric input, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events that define the event to recognize.

図2は、いくつかの実施形態による、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに後述の他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に行われる。いくつかの実施形態では、ジェスチャは、任意選択的に、1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上向き、及び/若しくは下向き)、並びに/又はデバイス100と接触した指のロール(右から左、左から右、上向き、及び/若しくは下向き)を含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。 FIG. 2 illustrates portable multifunction device 100 having touch screen 112, according to some embodiments. The touchscreen optionally displays one or more graphics within a user interface (UI) 200 . In this embodiment, as well as other embodiments described below, a user may, for example, use one or more fingers 202 (not drawn to scale) or one or more styluses 203 (not drawn to scale). not drawn to scale) can be used to select one or more of the graphics by performing a gesture on the graphics. In some embodiments, selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gestures are optionally one or more taps, one or more swipes (left to right, right to left, up and/or down), and/or contact with device 100. finger rolls (right-to-left, left-to-right, upwards, and/or downwards). In some implementations or situations, accidental contact with a graphic does not select that graphic. For example, a swipe gesture that sweeps over an application icon optionally does not select the corresponding application if the gesture corresponding to selection is a tap.

デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。 Device 100 also optionally includes one or more physical buttons such as a “home” button or menu button 204 . As previously mentioned, menu button 204 is optionally used to navigate to any application 136 within the set of applications optionally running on device 100 . Alternatively, in some embodiments, menu buttons are implemented as softkeys within a GUI displayed on touch screen 112 .

いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン(単数又は複数)206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的な実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。 In some embodiments, the device 100 includes a touch screen 112, a menu button 204, push button(s) 206 to power on/off and lock the device, volume control buttons 208, a subscriber identification module. (SIM) card slot 210, headset jack 212, and external port 124 for docking/charging. The push button 206 optionally powers the device on and off by depressing the button and holding the button depressed for a predetermined period of time, so that depressing the button for a predetermined period of time elapses. It is used to lock the device by releasing the button before doing so and/or to unlock the device or initiate the unlocking process. In an alternative embodiment, device 100 also accepts verbal input via microphone 113 to activate or deactivate some functions. Device 100 also optionally includes one or more contact intensity sensors 165 that detect the intensity of contact on touch screen 112 and/or one or more tactile sensors that generate tactile outputs for the user of device 100 . An output generator 167 is included.

図3は、いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ(単数又は複数)165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU(単数又は複数)310からリモートに配置されている1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びプログラムに類似したデータ構造、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device with a display and touch-sensitive surface, according to some embodiments. Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (e.g., home controller for commercial use or business use). Device 300 typically includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication buses interconnecting these components. 320 included. Communication bus 320 optionally includes circuitry (sometimes called a chipset) that interconnects and controls communications between system components. Device 300 includes input/output (I/O) interface 330 including display 340, which is typically a touch screen display. The I/O interface 330 also optionally includes a keyboard and/or mouse (or other pointing device) 350, a touchpad 355, and a tactile output generator 357 ( For example, analogous to the tactile output generator(s) 167 described above with reference to FIG. 1A) and sensor 359 (eg, the contact intensity sensor(s) described above with reference to FIG. 1A). 165-like light, acceleration, proximity, touch sensing, and/or contact intensity sensors). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory devices, and optionally one or more magnetic disk storage devices, optical disk storage devices, flash memory devices. , or other non-volatile solid-state storage device. Memory 370 optionally includes one or more storage devices located remotely from CPU(s) 310 . In some embodiments, memory 370 may include programs, modules, and data structures similar to, or a subset thereof, programs, modules, and programs stored in memory 102 of portable multifunction device 100 (FIG. 1A). memorize Additionally, memory 370 optionally stores additional programs, modules, and data structures not present in memory 102 of portable multifunction device 100 . For example, memory 370 of device 300 optionally stores drawing module 380, presentation module 382, word processing module 384, website creation module 386, disc authoring module 388, and/or spreadsheet module 390. In contrast, memory 102 of portable multifunction device 100 (FIG. 1A) optionally does not store these modules.

図3の上記で識別された要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で識別されたモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で識別されたモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で識別されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-identified elements of FIG. 3 are optionally stored in one or more of the memory devices previously described. Each of the modules identified above corresponds to a set of instructions that perform the functions previously described. The modules or programs (e.g., set of instructions) identified above need not be implemented as separate software programs, procedures, or modules; thus, in various embodiments, various subsets of these modules are optional. combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.

次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。 Attention is now directed to user interface embodiments that are optionally implemented, for example, on portable multifunction device 100 .

図4Aは、いくつかの実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408:
○不在着信又は音声メールメッセージの数の標識414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数の標識410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○ 「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン:
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
FIG. 4A shows an exemplary user interface of a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300 . In some embodiments, user interface 400 includes the following elements, or subsets or supersets thereof.
a signal strength indicator 402 for wireless communication(s) such as cellular and Wi-Fi signals;
Time 404,
- Bluetooth indicator 405,
- battery status indicator 406;
- A tray 408 with icons for frequently used applications, such as:
o an icon 416 for the phone module 138, labeled "phone", optionally including an indicator 414 of the number of missed calls or voicemail messages;
o An icon 418 of the email client module 140 labeled "Mail", optionally including an indicator 410 of the number of unread emails;
o icon 420 for browser module 147, labeled "Browser"; icons 422, and icons of other applications, such as:
o IM module 141 icon 424, labeled "Message";
o Icon 426 of calendar module 148, labeled "Calendar";
o icon 428 of image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "Camera";
o icon 432 for online video module 155, labeled "online video";
o icon 434 of stock widget 149-2, labeled "Stock Price";
o icon 436 of map module 154, labeled "Map";
o icon 438 for weather widget 149-1, labeled "Weather";
o icon 440 of alarm clock widget 149-4, labeled "Clock";
o Icon 442 for training support module 142, labeled "Training Support";
o Icon 444 of notes module 153, labeled "Notes"; and o Settings application or module, labeled "Settings", which provides access to settings for device 100 and its various applications 136. icon 446 .

図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels shown in FIG. 4A are merely exemplary. For example, the icon 422 for the video and music player module 152 is labeled "music" or "music player", other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to each application icon. In some embodiments, the label of a particular application icon is different than the name of the application corresponding to that particular application icon.

図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。 FIG. 4B is an exemplary illustration on a device (eg, device 300 of FIG. 3) having a touch-sensitive surface 451 (eg, tablet or touchpad 355 of FIG. 3) that is separate from display 450 (eg, touchscreen display 112). user interface. Device 300 also optionally includes one or more contact strength sensors (eg, one or more of sensors 359) that detect the strength of contact on touch-sensitive surface 451, and/or It includes one or more tactile output generators 357 that generate tactile outputs.

以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。 Although some of the examples below are given with reference to input on the touch screen display 112 (which is a combined touch-sensitive surface and display), in some embodiments the device Detects input on a touch-sensitive surface separate from the display shown. In some embodiments, the touch-sensitive surface (eg, 451 in FIG. 4B) has a primary axis (eg, 453 in FIG. 4B) that corresponds to the primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device interacts with touch-sensitive surface 451 at locations corresponding to respective locations on the display (e.g., 460 corresponds to 468 and 462 corresponds to 470 in FIG. 4B). Touches (eg, 460 and 462 in FIG. 4B) are detected. In this way, user input (e.g., contacts 460 and 462, and their movement) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) is controlled by the touch-sensitive surface being separate from the display. When used by the device to operate the user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be appreciated that similar methods are optionally used for other user interfaces described herein.

加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、いくつかの実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の実施例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に配置されている間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 Additionally, although the examples below are given primarily with reference to finger input (e.g., finger contact, finger tap gesture, finger swipe gesture), in some embodiments one or more of the finger inputs are , may be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of contact) followed by cursor movement along the path of the swipe (eg, instead of contact movement). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., detecting contact followed by detecting contact). ). Similarly, when multiple user inputs are detected simultaneously, it will be appreciated that multiple computer mice are optionally used simultaneously, or mouse and finger contact are optionally used simultaneously. sea bream.

図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。デバイス500は、代替的に、又はタッチスクリーン504に加えて、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。 FIG. 5A shows an exemplary personal electronic device 500. As shown in FIG. Device 500 includes body 502 . In some embodiments, device 500 can include some or all of the features described with respect to devices 100 and 300 (eg, FIGS. 1A-4B). In some embodiments, the device 500 has a touch-sensitive display screen 504, hereinafter touch screen 504. Device 500 may alternatively or in addition to touchscreen 504 have a display and touch-sensitive surface. As with devices 100 and 300, in some embodiments, touch screen 504 (or touch-sensitive surface) optionally includes one or more sensors that detect the strength of contact (e.g., touch) being applied. Includes intensity sensor. One or more intensity sensors of touch screen 504 (or touch-sensitive surface) can provide output data representing the intensity of the touch. The user interface of device 500 can respond to touches based on the intensity of the touch, meaning that different intensity touches can invoke different user interface operations on device 500 .

タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensity are disclosed, for example, in International Patent Application No. PCT/US2013/040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application", and International Patent No. WO/2014/103712, published as See related application entitled "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships," International Patent Application No. PCT/US2013/069483, filed Jan. 11.

いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。 In some embodiments, device 500 has one or more input mechanisms 506 and 508 . Input mechanisms 506 and 508, if included, can be physical mechanisms. Examples of physical input mechanisms include push buttons and rotatable mechanisms. In some embodiments, device 500 has one or more attachment mechanisms. Such attachment mechanisms, if included, allow the device 500 to be attached to, for example, hats, eyewear, earrings, necklaces, shirts, jackets, bracelets, watch bands, chains, pants, belts, shoes, purses, backpacks, etc. can make it possible. These attachment mechanisms allow the device 500 to be worn by the user.

図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知式構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。更には、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信するため、通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。 FIG. 5B shows an exemplary personal electronic device 500. As shown in FIG. In some embodiments, device 500 can include some or all of the components described with respect to FIGS. 1A, 1B, and 3. FIG. Device 500 has a bus 512 operatively coupling an I/O section 514 to one or more computer processors 516 and memory 518 . The I/O section 514 can be connected to a display 504, which can have a touch-sensitive component 522 and optionally an intensity sensor 524 (eg, a touch intensity sensor). In addition, I/O section 514 receives application and operating system data using Wi-Fi, Bluetooth, Near Field Communication (NFC), cellular, and/or other wireless communication technologies, so communication unit 530 can be connected to Device 500 can include input mechanisms 506 and/or 508 . Input mechanism 506 is optionally a rotatable input device or a depressible and rotatable input device, for example. In some examples, input mechanism 508 is optionally a button.

いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。 In some examples, input mechanism 508 is optionally a microphone. Personal electronic device 500 optionally includes various sensors such as GPS sensor 532, accelerometer 534, orientation sensor 540 (e.g., compass), gyroscope 536, motion sensor 538, and/or combinations thereof, All of these sensors can be operatively connected to I/O section 514 .

パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、コンピュータ実行可能命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、プロセス700、900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800を含む後述する技術をコンピュータプロセッサに実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。 Memory 518 of personal electronic device 500 can include one or more non-transitory computer-readable storage media for storing computer-executable instructions, which are executed by one or more computer processors 516. and the techniques described below including, for example, processes 700, 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, and 3800 into a computer processor. can be executed. A computer-readable storage medium is any capable of tangibly containing or storing computer-executable instructions for use by or in connection with an instruction execution system, apparatus, or device. can be a medium of In some examples the storage medium is a temporary computer readable storage medium. In some examples the storage medium is a non-transitory computer-readable storage medium. Non-transitory computer-readable storage media may include, but are not limited to, magnetic, optical, and/or semiconductor storage devices. Examples of such storage devices include magnetic discs, CDs, DVDs, or optical discs based on Blu-ray technology, as well as resident solid state memories such as flash, solid state drives, and the like. Personal electronic device 500 is not limited to the components and configuration of FIG. 5B, but can include other or additional components in multiple configurations.

本明細書では、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。 As used herein, the term “affordance” refers to a user-interacting graphical user interface optionally displayed on a display screen of device 100, 300, and/or 500 (FIGS. 1A, 3, and 5A-5B). Points to an interface object. For example, images (eg, icons), buttons, and text (eg, hyperlinks) each optionally constitute affordances.

本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の位置マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の位置で入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態に関係なく、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによって、ユーザが意図する対話をユーザインタフェースで通信するようにユーザによって制御される)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of the user interface with which the user is interacting. In some implementations that include a cursor or other position marker, the cursor acts as a "focus selector," so that the cursor is positioned over a particular user interface element (e.g., button, window, slider, or other user interface element). When an input (e.g., press input) is detected on a touch-sensitive surface (e.g., touch pad 355 in FIG. 3 or touch-sensitive surface 451 in FIG. 4B) while overlying, a particular user interface element Adjusted according to the detected input. In some implementations, including a touch screen display that enables direct interaction with user interface elements on the touch screen display (e.g., touch-sensitive display system 112 of FIG. 1A or touch screen 112 of FIG. 4A), Detected touch acts as a "focus selector", thus allowing input (e.g., by touch When a press input) is detected, certain user interface elements are adjusted according to the detected input. In some implementations, focus can be moved without corresponding cursor movement or contact movement on the touch screen display (e.g., by using the tab key or arrow keys to move focus from one button to another). is moved from one area of the user interface to another area of the user interface, and in these implementations the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form that a focus selector takes, it is generally a user interface element (or touch on a touch screen display) (e.g., an element of a user interface with which a user is intended to interact). controlled by the user to communicate the user's intended interaction with the user interface by presenting it to the device). For example, the position of a focus selector (e.g., cursor, touch, or selection box) over a corresponding button while a press input is detected on a touch-sensitive surface (e.g., touchpad or touchscreen) It indicates that the user intends to activate the corresponding button (as opposed to other user interface elements shown on the device's display).

本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する所定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1組の1つ以上の強度閾値と比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行することを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of contact refers to the properties of that contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predefined number of intensity samples, i.e., a predefined event (e.g., after detecting a contact, before detecting lift-off of the contact, before or after detecting the start of movement of the contact, a predetermined time period (e.g., 0.05, 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optionally maximum strength of contact, mean strength of contact, average strength of contact, top 10 percentile strength of contact, strength of contact , a maximum 90 percent value of the intensity of contact, and so on. In some embodiments, the duration of contact is used in determining the characteristic strength (eg, when the characteristic strength is the average strength of the contact over time). In some embodiments, the characteristic strength is compared to a set of one or more strength thresholds to determine whether an action has been performed by the user. For example, the set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact with a characteristic intensity that does not exceed a first threshold results in a first action, and a contact with a characteristic intensity that exceeds the first intensity threshold but does not exceed a second intensity threshold results in: A contact that results in a second action and has a characteristic intensity exceeding a second threshold results in a third action. In some embodiments, a comparison between the characteristic strength and one or more thresholds is used to determine whether to perform the first action or the second action. Instead, it is used to determine whether to perform one or more actions (e.g., whether to perform each action or not to perform each action).

図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この実施例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この実施例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この実施例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、いくつかの実装形態では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、集約強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C~図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して実行することができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C~図5Dに含まれていることに留意されたい。 FIG. 5C illustrates detecting multiple contacts 552A-552E on touch-sensitive display screen 504 by multiple intensity sensors 524A-524D. FIG. 5C additionally includes an intensity diagram showing current intensity measurements of intensity sensors 524A-524D versus intensity units. In this example, the intensity measurements of intensity sensors 524A and 524D are each 9 intensity units, and the intensity measurements of intensity sensors 524B and 524C are each 7 intensity units. In some implementations, the aggregate intensity is the sum of the intensity measurements of multiple intensity sensors 524A-524D, which in this example is 32 intensity units. In some embodiments, each contact is assigned a respective intensity that is a fraction of the aggregate intensity. FIG. 5D shows assigning aggregate strengths to contacts 552A-552E based on distance from center of force 554. FIG. In this example, contacts 552A, 552B, and 552E are each assigned a strength of contact of 8 intensity units of the aggregate strength, and contacts 552C and 552D are each assigned a strength of contact of 4 strength units of the aggregate strength. be done. More generally, in some implementations, each contact j is assigned a respective strength Ij that is a fraction of the aggregate strength A according to a predetermined mathematical function Ij=A·(Dj/ΣDi), where where Dj is the distance from the center of force to each contact j, and ΣDi is the sum of the distances from the center of force to all respective contacts (eg, from i=1 to the last). The operations described with reference to FIGS. 5C-5D may be performed using an electronic device similar or identical to device 100, 300 or 500. FIG. In some embodiments, the characteristic strength of contact is based on one or more strengths of contact. In some embodiments, an intensity sensor is used to determine a single characteristic intensity (eg, a single characteristic intensity of a single contact). Note that the intensity diagrams are not part of the display user interface and are included in FIGS. 5C-5D to aid the reader.

いくつかの実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、任意選択的に、開始位置から遷移して終了位置に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この実施例では、終了位置での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了位置の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for purposes of determining characteristic strength. For example, the touch-sensitive surface optionally receives successive swipe contacts transitioning from a starting position to reaching an ending position, at which point the contact increases in strength. In this example, the characteristic strength of the contact at the end position is optionally based on only a portion of the continuous swipe contact (e.g., only the end position portion of the swipe contact) rather than the entire swipe contact. . In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact prior to determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate small increases or decreases in strength of swipe contacts for purposes of determining characteristic strength.

タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally scaled to one or more intensity thresholds, such as a touch detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and/or one or more other intensity thresholds. characterized for In some embodiments, the light press intensity threshold corresponds to the intensity at which the device performs actions typically associated with clicking a physical mouse button or trackpad. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs a different action than is typically associated with clicking a physical mouse button or trackpad. In some embodiments, when a touch is detected with a characteristic strength below a light pressure intensity threshold (e.g., above a nominal touch detection intensity threshold below which no contact is detected), the device detects the light pressure intensity Moving the focus selector according to the movement of the contact on the touch-sensitive surface without performing the actions associated with the threshold or the deep pressure intensity threshold. In general, unless otherwise stated, these intensity thresholds are consistent between different sets of user interface diagrams.

軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」の入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロよりも大きい。 An increase in the characteristic strength of a contact from an intensity below the light pressure threshold to an intensity between the light pressure threshold and the deep pressure threshold is sometimes referred to as a "light pressure" input. An increase in the characteristic strength of a contact from an intensity below the deep pressure threshold to an intensity above the deep pressure threshold is sometimes referred to as a "deep pressure" input. An increase in the characteristic strength of a touch from an intensity below the touch detection intensity threshold to an intensity between the touch detection intensity threshold and the light pressure intensity threshold is sometimes referred to as detecting contact on the touch surface. A decrease in the characteristic strength of the contact from an intensity above the contact detection intensity threshold to an intensity below the contact detection intensity threshold is sometimes referred to as detecting lift-off of the contact from the touch surface. In some embodiments, the contact detection strength threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.

本明細書に記載するいくつかの実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応じて、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応じて実行される。 In some embodiments described herein, in response to detecting a gesture including a respective pressure input or having detected a respective pressure input performed by a respective contact (or multiple contacts). One or more actions are performed in response to and each pressure input is detected based at least in part on detecting an increase in the intensity of the contact (or contacts) above the pressure input intensity threshold. . In some embodiments, the respective action is performed in response to detecting an increase in the strength of the respective contact above a pressure input strength threshold (eg, a "downstroke" of the respective pressure input). In some embodiments, the pressure input includes increasing the strength of each contact above the pressure input strength threshold followed by decreasing the strength of the contact below the pressure input strength threshold, and each action comprises a subsequent pressure Execution is in response to detecting a decrease in the intensity of the respective touch below the input threshold (eg, an "upstroke" of the respective pressure input).

図5E~図5Hは、図5Eの軽い押圧強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押圧強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応じて、ジェスチャ中に深い押圧強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F~図5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A~578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E~図5Hに含まれていることに留意されたい。 FIGS. 5E-5H illustrate contact 562 from intensity below the light pressure intensity threshold (eg, “IT L ”) in FIG. 5E to intensity above the deep pressure intensity threshold (eg, “IT D ”) in FIG. 5H. Fig. 3 shows the detection of gestures involving press input corresponding to increasing strength of . The gesture performed by contact 562 is detected on touch-sensitive surface 560 and displayed on display user interface 570 including application icons 572A-572D displayed within predetermined area 574 of application icon 572B corresponding to App2. A cursor 576 is displayed above. In some embodiments, gestures are detected on touch-sensitive display 504 . The intensity sensor detects the intensity of contact on touch-sensitive surface 560 . The device determines that the intensity of contact 562 has peaked above a deep pressure intensity threshold (eg, “IT D ”). Contact 562 is maintained on touch sensitive surface 560 . Upon detection of the gesture, according to contact 562 having an intensity above the deep pressure intensity threshold (eg, “IT D ”) during the gesture, recently opened documents for app 2, as shown in FIGS. 5F-5H . reduced-scale representations 578A-578C (eg, thumbnails) of are displayed. In some embodiments, this intensity compared to one or more intensity thresholds is the characteristic intensity of the contact. Note that the intensity diagram for contact 562 is not part of the display user interface and is included in FIGS. 5E-5H to aid the reader.

いくつかの実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F~図5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。 In some embodiments, the display of representations 578A-578C includes animation. For example, as shown in FIG. 5F, representation 578A is first displayed in proximity to application icon 572B. As the animation progresses, representation 578A moves upward and representation 578B is displayed closer to application icon 572B, as shown in FIG. 5G. Representation 578A then moves upward, representation 578B moves upward toward representation 578A, and representation 578C is displayed proximate application icon 572B, as shown in FIG. 5H. Representations 578A-578C form an array over icon 572B. In some embodiments, the animation progresses according to the intensity of contact 562, as shown in FIGS. 5F-5G, where the intensity of contact 562 increases toward a deeper pressure intensity threshold (eg, “IT D ”). As it does so, representations 578A-578C appear and move upward. In some embodiments, the strength on which the animation progression is based is the characteristic strength of the contact. The operations described with reference to FIGS. 5E-5H may be performed using an electronic device similar or identical to device 100, 300, or 500. FIG.

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくはなんらかの妥当な割合である)。したがって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応じて実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid inadvertent inputs, sometimes referred to as "jitter," wherein the device has a hysteresis intensity threshold that has a predetermined relationship to the pressure input intensity threshold. (e.g., the hysteresis intensity threshold is X intensity units less than the pressure input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable percentage of the pressure input intensity threshold ). Thus, in some embodiments, the pressure input includes an increase in strength of each contact above a pressure input strength threshold followed by a decrease in strength of the contact below a hysteresis strength threshold corresponding to the pressure input strength threshold, Each action is performed in response to detecting a subsequent decrease in the strength of the respective contact below the hysteresis strength threshold (eg, the "upstroke" of the respective pressure input). Similarly, in some embodiments, a pressure input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, and optionally thereafter a pressure below the hysteresis intensity. Each action is detected only when it detects a decrease in the strength of the contact to the strength of the touch (e.g., increasing the strength of the contact or decreasing the strength of the contact, depending on the situation). executed accordingly.

説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, descriptions of actions performed in response to a pressure input associated with a pressure input intensity threshold, or a gesture involving a pressure input, optionally include the intensity of the contact above the pressure input intensity threshold. an increase in the intensity of the contact from below the hysteresis intensity threshold to an intensity above the pressure input intensity threshold, a decrease in the intensity of the contact below the pressure input intensity threshold, and/or a hysteresis intensity threshold corresponding to the pressure input intensity threshold. Triggered in response to detecting any decrease in the strength of the contact below Further, in examples in which an action is described as being performed in response to detecting a decrease in the intensity of contact below a pressure input intensity threshold, the action optionally corresponds to the pressure input intensity threshold, and Execution is in response to detecting a decrease in the strength of the touch below a lower hysteresis strength threshold.

本明細書では、「インストール済みアプリケーション」は、電子デバイス(例えば、デバイス100、300、及び/又は500)上へダウンロードされ、デバイス上で起動する準備ができた(例えば、開かれた)ソフトウェアアプリケーションを指す。いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、抽出された部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムによって、インストール済みアプリケーションになる。 As used herein, an "installed application" is a software application that has been downloaded onto an electronic device (eg, device 100, 300, and/or 500) and is ready (eg, opened) to launch on the device. point to In some embodiments, the downloaded application is made an installed application by an installation program that extracts program portions from the downloaded package and integrates the extracted portions with the computer system's operating system.

本明細書では、「開いているアプリケーション」又は「実行中のアプリケーション」という用語は、保持された状態情報(例えば、デバイス/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)を有するソフトウェアアプリケーションを指す。開いている又は実行中のアプリケーションは、任意選択的に、以下のタイプのアプリケーションのうちのいずれか1つである。
●アプリケーションが使用されているデバイスのディスプレイスクリーン上に現在表示されているアクティブアプリケーション、
●現在表示されていないが、アプリケーションに対する1つ以上のプロセスが1つ以上のプロセッサによって処理されている背景アプリケーション(又は背景プロセス)、並びに
●稼働していないが、メモリ(揮発性及び不揮発性それぞれ)内に記憶されており、かつアプリケーションの実行を再開するために使用することができる状態情報を有する、中断又は休止状態アプリケーション。
As used herein, the terms "open application" or "running application" have state information that is persisted (e.g., as part of device/global internal state 157 and/or application internal state 192). Refers to software applications. The open or running application is optionally one of the following types of applications.
● the active application currently displayed on the display screen of the device in which the application is being used,
background applications (or background processes) that are not currently visible, but one or more of which are being processed by one or more processors for the application; ) and has state information that can be used to resume execution of the application.

本明細書では、「閉じているアプリケーション」という用語は、保持された状態情報を有していないソフトウェアアプリケーションを指す(例えば、閉じているアプリケーションに対する状態情報は、デバイスのメモリ内に記憶されていない)。したがって、アプリケーションを閉じることは、アプリケーションに対するアプリケーションプロセスを停止及び/又は除去し、アプリケーションに対する状態情報をデバイスのメモリから除去することを含む。概して、第1のアプリケーション中に第2のアプリケーションを開いても、第1のアプリケーションは閉じない。第2のアプリケーションが表示されており、かつ第1のアプリケーションが表示を終了されたとき、第1のアプリケーションは背景アプリケーションになる。 As used herein, the term "closed application" refers to a software application that has no persisted state information (e.g., state information for a closed application is not stored in the device's memory). ). Closing an application therefore includes stopping and/or removing the application process for the application and removing state information for the application from the device's memory. Generally, opening a second application while a first application does not close the first application. When the second application is displayed and the first application is finished displaying, the first application becomes the background application.

次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 Attention is now directed to embodiments of user interfaces (“UIs”) and related processes implemented on electronic devices such as portable multifunction device 100 , device 300 , or device 500 .

図6A~図6Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図7A~図7Cにおける処理を含む、以下で説明する処理を例示するために使用される。 6A-6V illustrate exemplary user interfaces for accessing media controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 7A-7C.

図6Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビューは、対象640及び周囲環境を含む。図6Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラの(例えば、部分的な)視野の表現である。 FIG. 6A shows an electronic device 600 displaying a live preview 630 optionally extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 . In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 . The camera user interface of FIG. 6A includes indicator area 602 and control area 606, which are overlaid on live preview 630 so that the indicators and controls can be displayed simultaneously with the live preview. Camera display area 604 does not substantially overlap with indicators or controls. In this example, the live preview includes object 640 and surroundings. The camera user interface of FIG. 6A includes a visual border 608 that indicates the border between indicator area 602 and camera display area 604 and the border between camera display area 604 and control area 606 . Live preview 630 is a representation of the (eg, partial) view of one or more cameras of device 600 .

図6Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。概して、フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることをユーザに示す。 As shown in FIG. 6A, indicator region 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator region 602 includes flash indicator 602a. Generally, flash indicator 602a indicates whether the flash is on, off, or in another mode (eg, automatic mode). In FIG. 6A, flash indicator 602a indicates to the user that the flash is off.

図6Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図6Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 6A, camera display area 604 includes live preview 630 and zoom affordance 622 . As shown in FIG. 6A, control area 606 overlays live preview 630 and optionally includes a colored (eg, gray, translucent) overlay.

図6Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図6Aにおいて、カメラモードアフォーダンス620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 6A, control area 606 includes camera mode affordance 620, additional control affordance 614, shutter affordance 610, and camera switcher affordance 612. As shown in FIG. Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes. In FIG. 6A, camera mode affordances 620a-620e are displayed, with "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. Additional control affordances 614 allow the user to access additional camera controls. Shutter affordance 610, when activated, instructs device 600 to capture media (e.g., photos) using one or more camera sensors based on the current state of live preview 630 and the current state of the camera application. is captured. The captured media may be stored locally on electronic device 600 and/or transmitted to a remote server for storage. Camera switcher affordance 612, when activated, causes device 600 to switch to show different camera views in live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図6Bでは、ユーザは、三脚アクセサリ601をデバイス600に取り付けた。その結果、デバイス600は、三脚接続条件が満たされていると判定する。三脚接続条件は、デバイスが接続された三脚を検出するときに満たされ、デバイスが接続された三脚を検出しないときに満たされない条件である。三脚接続条件が満たされていることに基づいて、デバイス600は、コントロール領域を更新して、追加のコントロールアフォーダンス614を拡張し、タイマーコントロールアフォーダンス614aを表示する。いくつかの実施形態では、デバイス600は、タイマーコントロールアフォーダンス614aに向けられた入力が受信されないとき、所定の期間が経過した後に、タイマーコントロールアフォーダンス614aを表示することを停止する。 In FIG. 6B, the user has attached tripod accessory 601 to device 600 . As a result, the device 600 determines that the tripod connection condition is satisfied. A tripod connection condition is a condition that is met when the device detects a connected tripod and is not met when the device does not detect a connected tripod. Based on the tripod connection condition being met, device 600 updates the control area to expand additional control affordances 614 and display timer control affordances 614a. In some embodiments, device 600 stops displaying timer control affordance 614a after a predetermined period of time has elapsed when no input directed to timer control affordance 614a is received.

図6Aに戻ると、デバイス600は、三脚アクセサリ601が取り付けられていない。その結果、デバイス600は、三脚接続条件が満たされていないと判定する。図6Aでは、三脚接続条件が満たされていることに基づいて、デバイス600は、タイマーコントロールアフォーダンス614aを表示しない。 Returning to FIG. 6A, device 600 does not have tripod accessory 601 attached. As a result, the device 600 determines that the tripod connection condition is not satisfied. In FIG. 6A, device 600 does not display timer control affordance 614a based on the tripod connection condition being met.

図6Bでは、デバイス600は、タッチ感知面を使用して、タイマーコントロールアフォーダンス614aを表示することに対応する位置でのタップジェスチャ650aを検出する。図6Cに示すように、タップジェスチャ650aを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aを表示することを停止する。いくつかの実施形態では、デバイス600は、インジケータ領域602が高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なタイマーコントロールアフォーダンス634a~634dを含む調整可能なタイマーコントロール634に置き換える。調整可能なタイマーコントロールアフォーダンス634a~634dは、アクティブ化されると、シャッターアフォーダンス610がアクティブ化されたときにメディアをキャプチャするための遅延を変更する(又は変更するためのプロセスを開始した)。例えば、調整可能なタイマーコントロールアフォーダンス634aは、アクティブ化されると、遅延時間を0秒に設定し、調整可能なタイマーコントロールアフォーダンス634bは、アクティブ化されると、遅延を3秒に設定する。図6Cでは、デバイス600はまた、ズームアフォーダンス622をもはや表示していない。 In FIG. 6B, device 600 uses the touch-sensitive surface to detect tap gesture 650a at a location corresponding to displaying timer control affordance 614a. As shown in FIG. 6C, in response to detecting tap gesture 650a, device 600 shifts up the borders of camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, Thereby, the height of indicator area 602 is reduced and the height of control area 606 is increased. In addition to reducing the height of indicator region 602, device 600 stops displaying flash indicator 602a. In some embodiments, device 600 stops displaying any indicators within indicator area 602 while indicator area 602 is in the height reduction mode. In addition to increasing the height of control area 606, device 600 replaces the display of camera mode affordances 620 with adjustable timer controls 634 that include adjustable timer control affordances 634a-634d. Adjustable timer control affordances 634a-634d, when activated, change (or have initiated the process of changing) the delay for capturing media when shutter affordance 610 is activated. For example, adjustable timer control affordance 634a, when activated, sets the delay time to 0 seconds, and adjustable timer control affordance 634b, when activated, sets the delay to 3 seconds. In FIG. 6C, device 600 also no longer displays zoom affordance 622 .

図6Cでは、デバイス600は、タッチ感知面を使用して、調整可能なタイマーコントロールアフォーダンス634dに対応する位置でのタップジェスチャ650bを検出する。図6Dに示すように、タップジェスチャ650bを検出したことに応じて、デバイス600は、調整可能なタイマーコントロール634を更新して、「OFF(オフ)」がもはや選択されておらず、「10秒」が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。加えて、デバイス600は、シャッターアフォーダンス610がアクティブ化されたときに、メディアをキャプチャするために、10秒のセルフタイマー遅延を設定する。いくつかの実施形態では、更に、タップジェスチャ650bを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650bを検出した後の所定の期間の後に、調整可能なタイマーコントロール634を表示することを停止する。 In FIG. 6C, device 600 uses the touch-sensitive surface to detect tap gesture 650b at a location corresponding to adjustable timer control affordance 634d. As shown in FIG. 6D, in response to detecting tap gesture 650b, device 600 updates adjustable timer control 634 to indicate that "OFF" is no longer selected and "10 seconds ” is currently selected (eg, by bold, highlighting). Additionally, device 600 sets a 10 second self-timer delay to capture media when shutter affordance 610 is activated. In some embodiments, further in response to detecting tap gesture 650b and without receiving additional user input, device 600 adjusts after a predetermined period of time after detecting tap gesture 650b. Stop displaying possible timer controls 634 .

図6Dでは、調整可能なタイマーコントロール634が表示され、かつインジケータ領域602が高さ低減モードにある間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650cを検出する。図6Eに示すように、タップジェスチャ650cを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602aを再表示する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにないとき(例えば、インジケータがインジケータ領域602内に表示されているとき)、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なタイマーコントロール634の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。セルフタイマー機能がアクティブ化されている結果(例えば、0秒よりも大きい遅延に設定されている)として、デバイス600は、インジケータ領域602内にタイマー状態インジケータ602bを表示する。フラッシュインジケータ602aと同様に、タイマー状態インジケータ602bは、セルフタイマーの状態のインジケーションが提供される。図6Eの例では、タイマー状態インジケータ602bは、セルフタイマー遅延が10秒に設定されていることを示す。いくつかの実施形態では、タイマー状態インジケータ602bは、セルフタイマー遅延が無効化されている(又は0秒に設定されている)ときには表示されない。いくつかの実施形態では、(例えば、タップジェスチャオン)タイマー状態インジケータ602bのアクティブ化により、デバイス600に、セルフタイマー遅延を変更するための様々なオプションを、調整可能なタイマーコントロール634内などに表示させる。 In FIG. 6D, while the adjustable timer control 634 is displayed and the indicator area 602 is in the height reduction mode, the device 600 uses the touch-sensitive surface to display additional control affordances 614 at positions corresponding to the additional control affordances 614 . tap gesture 650c. As shown in FIG. 6E, in response to detecting tap gesture 650c, device 600 shifts down the borders of camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, Thereby, the height of the indicator area 602 is increased and the height of the control area 606 is decreased. In addition to increasing the height of indicator area 602 , device 600 redisplays flash indicator 602 a within control area 606 . In some embodiments, when the indicator area 602 is not in the height reduction mode (e.g., when an indicator is displayed within the indicator area 602), the device 600 displays a (state (on, off , automatic)) display the flash indicator 602a. In addition to reducing the height of control area 606 , device 600 replaces the display of adjustable timer control 634 with camera mode affordance 620 . In addition, device 600 redisplays zoom affordance 610 within camera display area 604 . As a result of the self-timer feature being activated (eg, set to a delay of greater than 0 seconds), device 600 displays timer status indicator 602b within indicator area 602 . Similar to flash indicator 602a, timer status indicator 602b provides an indication of the status of the self-timer. In the example of FIG. 6E, timer status indicator 602b indicates that the self-timer delay is set to 10 seconds. In some embodiments, timer status indicator 602b is not displayed when self-timer delay is disabled (or set to 0 seconds). In some embodiments, activation of timer state indicator 602b (eg, tap gesture on) causes device 600 to display various options for changing the self-timer delay, such as within adjustable timer control 634. Let

図6Eでは、シャッターアフォーダンス610のアクティブ化(例えば、その上のタップジェスチャ)により、デバイス600に、フラッシュなしで(フラッシュインジケータ602aによって示されるように)、かつ10秒のセルフタイマー遅延(タイマー状態インジケータ602bによって示されるように)を有すること含む、デバイスの現在の状態に基づいて、メディア(例えば、画像、一連の画像)のキャプチャを開始させる。いくつかの実施形態では、図8A~図8Vに関して更に詳細に説明されるように、デバイス600は、インジケータ領域602及びコントロール領域606に示されるように、ライブプレビュー630に対応する視覚コンテンツ(及び任意選択的に追加の視覚コンテンツ)を含む。 In FIG. 6E, activation of shutter affordance 610 (e.g., a tap gesture on it) causes device 600 to switch to no flash (as indicated by flash indicator 602a) and a 10 second self-timer delay (timer state indicator). 602b) to initiate the capture of media (eg, an image, a sequence of images) based on the current state of the device, including having the In some embodiments, as described in further detail with respect to FIGS. 8A-8V, device 600 displays visual content (and optional optional additional visual content).

図6Fでは、デバイス600のカメラ機能は、ライブプレビュー630に示すように、低光環境で使用される。低光環境にある間は、デバイス600は、1つ以上のカメラセンサ、周辺光センサ、及び/又は環境照明条件を検出する追加のセンサを使用して、低光条件が満たされていると判定する(例えば、環境照明条件が閾値(例えば、10ルクス)を下回り、かつフラッシュが有効化されていないことをデバイス600が検出するときに満たされ、環境照明条件が閾値を下回らないか、又はフラッシュが有効化(オン又は自動)されていることをデバイスが検出するときに満たされない条件)。図6Fにおいて、低光条件が満たされているとの判定に従って、デバイス600は、インジケータ領域602内に低光モード状態インジケータ602cを(例えば、追加のユーザ入力を必要とせずに)表示する。加えて、図6F~図6Gに示すように、低光条件が満たされているとの判定に従って、デバイス600は、インジケータ領域606内に低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。いくつかの実施形態では、デバイス600は、1つのアフォーダンスを他のアフォーダンスに置き換えることによって、インジケータ領域606内に低光モードコントロールアフォーダンス614bの表示とフラッシュコントロールアフォーダンス614cの表示との間で(例えば、所定の回数)サイクルする。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cは、インジケータ領域606内に同時に表示される。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cのそれぞれが、異なる照明条件(例えば、異なる周辺光レベル)に対応し、アフォーダンスは、それらの対応する照明条件が満たされているときに、コントロール領域606内に表示される(及び、それらの対応する照明条件が満たされているときに表示されない)。いくつかの例では、第1の照明条件は、環境照明条件が第1の閾値(例えば、20ルクス)を下回ることをデバイス600が検出すると満たされ、第2の照明条件は、環境照明条件が第2の閾値(例えば、10ルクス)を下回ることをデバイス600が検出するときに満たされる。いくつかの実施形態では、照明条件は、デバイス600によって検出された環境光の量、及び任意選択的に、フラッシュが有効化されているかどうかに基づく。デバイス600は、任意選択的に、インジケータに対応する機能(例えば、照明強調機能)が使用可能である場合(対応する機能が有効化されているか又は無効化されているかどうかにかかわらず)、低光モード状態インジケータ602cを表示する。 In FIG. 6F, the camera functionality of device 600 is used in a low light environment, as shown in live preview 630. In FIG. While in a low-light environment, device 600 uses one or more camera sensors, ambient light sensors, and/or additional sensors to detect ambient lighting conditions to determine that low-light conditions are met. (e.g., met when the device 600 detects that the ambient lighting conditions are below a threshold (e.g., 10 lux) and the flash is not enabled, the ambient lighting conditions are not below the threshold, or the flash conditions that are not met when the device detects that is enabled (on or automatic). In FIG. 6F, device 600 displays low light mode status indicator 602c within indicator region 602 (eg, without requiring additional user input) following a determination that the low light condition is met. Additionally, as shown in FIGS. 6F-6G, upon determining that the low-light condition is met, device 600 places low-light mode control affordance 614b and flash control affordance 614c within indicator region 606 (eg, without requiring additional user input). In some embodiments, device 600 switches between displaying low light mode control affordance 614b and flash control affordance 614c in indicator region 606 by replacing one affordance with another (e.g., predetermined number of times). In some embodiments, low light mode control affordance 614b and flash control affordance 614c are displayed simultaneously within indicator region 606. FIG. In some embodiments, each of low-light mode control affordance 614b and flash control affordance 614c correspond to different lighting conditions (e.g., different ambient light levels), and the affordances are different when their corresponding lighting conditions are met. are displayed within the control area 606 when they are on (and are not displayed when their corresponding lighting conditions are met). In some examples, the first lighting condition is met when the device 600 detects that the ambient lighting condition is below a first threshold (eg, 20 lux), and the second lighting condition is met when the ambient lighting condition is Satisfied when device 600 detects falling below a second threshold (eg, 10 lux). In some embodiments, lighting conditions are based on the amount of ambient light detected by device 600 and optionally whether flash is enabled. Device 600 optionally displays a low light when a feature corresponding to the indicator (eg, a lighting enhancement feature) is available (whether the corresponding feature is enabled or disabled). Display light mode status indicator 602c.

対照的に、図6A~図6Eにおいて、低光条件が満たされていないとデバイス600が判定することに従って、デバイス600は、低光モードコントロールアフォーダンス614b、低光モード状態インジケータ602c、及び低光モード状態インジケータ602cを、それらの対応するカメラユーザインタフェース内に表示することをやめる。いくつかの実施形態では、デバイス600は、インジケータに対応する機能(例えば、照明強調機能)が使用可能でない場合、インジケータ領域602内に低光モード状態インジケータ602cを表示しない。 In contrast, in FIGS. 6A-6E, upon device 600 determining that the low-light condition is not met, device 600 displays low-light mode control affordance 614b, low-light mode status indicator 602c, and low-light mode State indicators 602c cease to be displayed within their corresponding camera user interface. In some embodiments, the device 600 does not display the low light mode status indicator 602c within the indicator region 602 if the functionality corresponding to the indicator (eg, lighting enhancement functionality) is not available.

図6Gに戻ると、デバイス600は、タッチ感知面を使用して、フラッシュコントロールアフォーダンス614cに対応する位置でのタップジェスチャ650dを検出する。図6Hに示すように、タップジェスチャ650dを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aを表示することを停止する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにあるときであっても、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示し続ける。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なフラッシュコントロール662に置き換える。調整可能なフラッシュコントロール662は、フラッシュオンコントロール662a及びフラッシュオフコントロール662bを含む。デバイス600は、例えば、フラッシュオフコントロール662b内の「OFF」を強調(例えば、太字、ハイライト)することにより、フラッシュがオフ状態にあることを示す。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604内のズームアフォーダンス610を表示することを停止する。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス610の表示を維持する。 Returning to FIG. 6G, device 600 uses its touch-sensitive surface to detect tap gesture 650d at a location corresponding to flash control affordance 614c. As shown in FIG. 6H, in response to detecting tap gesture 650d, device 600 shifts up the borders of camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, Thereby, the height of the indicator area 602 is decreased and the height of the control area 606 is increased. In addition to decreasing the height of indicator area 602 , device 600 stops displaying flash indicator 602 a within control area 606 . In some embodiments, device 600 displays flash indicator 602a within indicator area 602 (regardless of state (on, off, auto)) even when indicator area 602 is in height reduction mode. keep doing In addition to increasing the height of control area 606 , device 600 replaces the display of camera mode affordance 620 with adjustable flash control 662 . Adjustable flash controls 662 include flash on control 662a and flash off control 662b. Device 600 indicates that the flash is off by, for example, emphasizing (eg, bold, highlighting) "OFF" in flash off control 662b. In some embodiments, device 600 also stops displaying zoom affordance 610 within camera display area 604 . In some embodiments, device 600 maintains display of zoom affordance 610 within camera display area 604 .

図6Hでは、デバイス600は、タッチ感知面を使用して、フラッシュオンコントロール662aに対応する位置でのタップジェスチャ650eを検出する。図6Iに示すように、タップジェスチャ650bを検出したことに応じて、デバイス600は、調整可能なフラッシュコントロール662を更新して、「OFF(オフ)」(フラッシュオフコントロール662bに対応)がもはや選択されておらず、「ON(オン)」(フラッシュオンコントロール662aに対応)が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。 In FIG. 6H, device 600 uses its touch-sensitive surface to detect tap gesture 650e at a location corresponding to flash-on control 662a. As shown in FIG. 6I, in response to detecting tap gesture 650b, device 600 updates adjustable flash control 662 so that "OFF" (corresponding to flash off control 662b) is no longer selected. indicates that "ON" (corresponding to flash on control 662a) is currently selected (eg, by bold, highlighting).

いくつかの実施形態では、更に、タップジェスチャ650eを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650eを検出した後の所定の期間の後に、更新された調整可能なフラッシュコントロール662を表示することを停止し、図6Iに示すユーザインタフェースに遷移する。具体的には、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Hのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602a(現在、フラッシュが有効化されていることを示す)を再表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なフラッシュコントロール662の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Jでは、低光条件が満たされ続けているとの判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。図6Jでは、低光条件はもはや満たされず(例えば、フラッシュがオンであるため)、その結果、低光モード状態インジケータ602cは、図18A~図18Xに関してより詳細に説明されるように、インジケータ領域602内にもはや表示されない。 In some embodiments, further in response to detecting tap gesture 650e and without receiving additional user input, device 600 updates after a predetermined period of time after detecting tap gesture 650e. stop displaying the adjusted adjustable flash control 662 and transition to the user interface shown in FIG. 6I. Specifically, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby increasing the height of the indicator area 602, Reduce the height of control area 606 (compared to the user interface of FIG. 6H). In addition to increasing the height of indicator area 602 , device 600 redisplays flash indicator 602 a (indicating that flash is now enabled) within control area 606 . In addition to reducing the height of control area 606 , device 600 replaces the display of adjustable flash control 662 with camera mode affordance 620 . In addition, device 600 redisplays zoom affordance 610 within camera display area 604 . In FIG. 6J, device 600 displays flash control affordance 614c within control region 606 (eg, without requiring additional user input) following a determination that the low light condition continues to be met. In FIG. 6J, the low-light condition is no longer met (eg, because the flash is on), so that the low-light mode status indicator 602c is displayed in the indicator area as described in more detail with respect to FIGS. 18A-18X. It is no longer displayed in 602.

図6Jでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650fを検出する。図6Kに示すように、タップジェスチャ650fを検出したことに応じて、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aを表示することを停止する。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a~626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a~626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始する)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、セルフ遅延タイマー(シャッター時間としても知られる)を設定するプロセスを開始する。 In FIG. 6J, device 600 detects tap gesture 650f at a location corresponding to additional control affordance 614 using the touch-sensitive surface. As shown in FIG. 6K, in response to detecting tap gesture 650f, device 600 shifts up the borders of camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, Thereby, the height of the indicator area 602 is decreased and the height of the control area 606 is increased. In addition to decreasing the height of indicator area 602 , device 600 stops displaying flash indicator 602 a within control area 606 . In addition to reducing the height of indicator region 602, device 600 stops displaying flash indicator 602a. In addition to increasing the height of control region 606, device 600 replaces display of camera mode affordance 620 with camera setting affordance 626, which includes a first set of camera setting affordances 626a-626e. Camera setting affordances 626a-626e change (or initiate a process to change) camera settings when activated. For example, affordance 626a, when activated, turns the flash on and off, and affordance 626d, when activated, initiates the process of setting a self-delay timer (also known as the shutter time).

図6Kでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する位置(コントロール領域606内)でのタップジェスチャ650gを検出する。図6Lでは、タップジェスチャ650gを検出したことに応じて、デバイス600は、アニメーション化された画像コントロールアフォーダンス626bの表示を拡張して、調整可能なアニメーション化された画像コントロール664を表示し、これは、アクティブ化されると(例えば、タップにより)、デバイスが単一の画像又は既定の数の画像をキャプチャするかどうかを構成する、複数のアフォーダンス664a~664bを含む。図6Lでは、アニメーション化された画像コントロールオフオプション664bが強調され(例えば、太字化される)、シャッターアフォーダンス610のアクティブ化が、既定の数の画像ではなく単一の画像をキャプチャすることを示す。 In FIG. 6K, device 600 uses its touch-sensitive surface to detect tap gesture 650g at a location (within control region 606) corresponding to animated image control affordance 626b. In FIG. 6L, in response to detecting tap gesture 650g, device 600 expands display of animated image control affordance 626b to display adjustable animated image control 664, which is , includes a plurality of affordances 664a-664b that, when activated (eg, by tapping), configure whether the device captures a single image or a predetermined number of images. In FIG. 6L, animated image control off option 664b is highlighted (eg, bolded) to indicate that activation of shutter affordance 610 captures a single image instead of the default number of images. .

図6Lでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する位置(コントロール領域606内)でのタップジェスチャ650hを検出する。図6Mでは、タップジェスチャ650gを検出したことに応じて、デバイス600は、調整可能なアニメーション化された画像コントロール664を更新して、アニメーション化された画像コントロールオフオプション664bの強調を停止し、代わりに、(例えば、「ON」を太字化することによって)オプション664a上のアニメーション化された画像コントロールを強調する。更に、タップジェスチャ650hを検出したことに応じて、デバイス600は、シャッターアフォーダンス610のアクティブ化(例えば、タップオン)が検出されると、既定の数の画像をキャプチャするようにカメラを構成する。 In FIG. 6L, device 600 uses its touch-sensitive surface to detect tap gesture 650h at a location (within control region 606) corresponding to animated image control affordance 626b. In FIG. 6M, in response to detecting tap gesture 650g, device 600 updates adjustable animated image control 664 to de-emphasize animated image control off option 664b and instead , highlight the animated image control on option 664a (eg, by bolding "ON"). Further, in response to detecting tap gesture 650h, device 600 configures the camera to capture a predetermined number of images when activation (eg, tapping on) of shutter affordance 610 is detected.

いくつかの実施形態では、更に、タップジェスチャ650hを検出したことに応じて、かつ追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650hを検出した後の所定の期間の後に、更新された調整可能なアニメーション化された画像コントロール664を表示することを停止し、図6Nに示すユーザインタフェースに遷移する。いくつかの実施形態では、タッチ感知面を使用して、カメラディスプレイ領域606内のライブプレビュー630に対応する位置での下スワイプジェスチャ650iを検出したことに応じて、デバイス600は、図6Nに示すユーザインタフェースを表示するように遷移する。 In some embodiments, further in response to detecting tap gesture 650h and without receiving additional user input, device 600 updates after a predetermined period of time after detecting tap gesture 650h. stop displaying the adjusted adjustable animated image control 664 and transition to the user interface shown in FIG. 6N. In some embodiments, in response to using the touch-sensitive surface to detect a down swipe gesture 650i at a location corresponding to live preview 630 in camera display area 606, device 600 performs the Transition to display the user interface.

図6M~図6Nのユーザインタフェースから遷移する際、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Mのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、フラッシュが有効化されていることを示す、フラッシュインジケータ602aを再表示し、カメラがコントロール領域606内の既定の数の画像(上述のように)をキャプチャすることを示す、アニメーション化された画像状態インジケータ602dを更に表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なアニメーション化された画像コントロール664の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Nでは、低光条件が満たされ続けているとの判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。 When transitioning from the user interface of FIGS. 6M-6N, the device 600 shifts down the boundaries of the camera display area 604 (while maintaining the same size and aspect ratio) and the visual boundary 608, thereby causing the indicator area Increase the height of 602 and decrease the height of control area 606 (compared to the user interface of FIG. 6M). In addition to increasing the height of the indicator area 602, the device 600 redisplays the flash indicator 602a, indicating that the flash is enabled, and the camera returns to a predetermined number of images within the control area 606 ( It also displays an animated image state indicator 602d indicating capturing of ) as described above. In addition to reducing the height of control area 606 , device 600 replaces the display of adjustable animated image controls 664 with camera mode affordances 620 . Additionally, device 600 redisplays zoom affordance 610 within camera display area 604 . In FIG. 6N, device 600 displays flash control affordance 614c within control region 606 (eg, without requiring additional user input) following a determination that the low light condition continues to be met.

図6Nでは、カメラフラッシュが有効化され、かつアニメーション化された画像コントロールが有効化されている間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ650jを検出する。タップジェスチャ650jを検出したことに応じて、デバイス600は、ライブプレビュー630の現在の状態及びカメラ設定に基づいて、メディア(例えば、既定の数の画像)をキャプチャする。キャプチャされたメディアは、デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図6Oに示すようにタップジェスチャ650jを検出したことに応じて、デバイス600は、(例えば、追加のコントロールアフォーダンス614の表示を部分的に又は完全に置き換えることによって)メディアコレクション624を表示し、コレクションの上に新たにキャプチャされたメディアの表現を含む。図6Oの例では、メディアコレクション624は、新たにキャプチャされたメディアの表現のみを含み、他のメディアの表現を含まない。シャッターアフォーダンス610がアクティブ化されたときにカメラフラッシュが有効化されていたため、新たにキャプチャされたメディアは、フラッシュを用いてキャプチャされた。シャッターアフォーダンス610がアクティブ化されたときにアニメーション化された画像コントロールが有効化されていたため、新たにキャプチャされたメディアは、既定の数の画像(例えば、静止画像及びビデオ)を含む。 In FIG. 6N, while camera flash is enabled and animated image controls are enabled, device 600 uses the touch-sensitive surface to perform a tap gesture at a location corresponding to shutter affordance 610. 650j is detected. In response to detecting tap gesture 650j, device 600 captures media (eg, a predetermined number of images) based on the current state of live preview 630 and camera settings. The captured media may be stored locally on device 600 and/or sent to a remote server for storage. Further, in response to detecting tap gesture 650j as shown in FIG. 6O, device 600 displays media collection 624 (eg, by partially or completely replacing the display of additional control affordances 614). , containing representations of newly captured media on top of the collection. In the example of FIG. 6O, media collection 624 contains only representations of newly captured media and no representations of other media. Since camera flash was enabled when shutter affordance 610 was activated, the newly captured media was captured with flash. Because the animated image controls were enabled when shutter affordance 610 was activated, the newly captured media includes a predetermined number of images (eg, still images and video).

図6Oでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置でのタップジェスチャ650kを検出する。図6Pに示すようにタップジェスチャ650kを検出したことに応じて、デバイス600は、ライブプレビュー630を表示することを停止し、代わりに、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースを表示する。キャプチャされたメディアは、フラッシュを有効化してキャプチャされたため、新たにキャプチャされたメディアの表現642は、シャッターアフォーダンス610がアクティブ化されたときに表示されたライブプレビュー630のビューよりも明るい(フラッシュがアクティブ化されたため)。キャプチャされたメディアの表示表現642は、画像が撮影されたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600がキャプチャされたメディアを再生するとき、再生には、一連の画像がキャプチャされたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚的再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかったが、キャプチャされたメディアを記憶する部分として任意選択的に保存された記録された視覚コンテンツも含まない)。いくつかの実施形態では、図10A~図10Kに関して更に説明されるように、キャプチャされたメディアの記録中にインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、保存されたメディアに記憶される。 6O, device 600 detects tap gesture 650k at a location corresponding to media collection 624 using its touch-sensitive surface. In response to detecting tap gesture 650k as shown in FIG. 6P, device 600 stops displaying live preview 630 and instead displays a photo viewer user interface including representation 642 of the newly captured media. display. Because the captured media was captured with flash enabled, the representation 642 of the newly captured media is brighter than the live preview 630 view displayed when the shutter affordance 610 was activated (with the flash turned on). activated). The displayed representation 642 of the captured media includes the visual content of the live preview 630 displayed in the camera display area 604 when the image was taken, but the live preview displayed in the indicator area 602 and the control area 606. 630 does not contain visual content. When the device 600 plays the captured media, playback includes visual playback of the visual content of the live preview 630 that was displayed within the camera display area 604 when the series of images were captured, but the indicator area 602 and the visual content of live preview 630 displayed in control area 606 (and optionally saved as part of storing captured media that was not displayed in live preview 630 during recording). (It also does not include recorded visual content that was recorded). In some embodiments, the visual content of live preview 630 displayed in indicator region 602 and control region 606 during recording of captured media is preserved, as further described with respect to FIGS. stored on the media.

図6Pでは、デバイス600は、新たにキャプチャされたメディアの表現642と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを送信するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を同時に表示する。デバイス600は、アニメーション化された画像コントロールが有効化されている間に表示されたメディアがキャプチャされたと判定し、それに応じて、アニメーション化された画像状態インジケータ644fを表示する。 In FIG. 6P, the device 600 displays a representation 642 of newly captured media, an editing affordance 644a for editing the newly captured media, and a sending affordance 644b for sending the newly captured media. , a favorite affordance 644c to mark the newly captured media as favorite media, a trash affordance 644d to delete the newly captured media, and a return affordance 644e to return to the live preview 630 display. , are displayed at the same time. Device 600 determines that the displayed media was captured while the animated image control was enabled, and displays animated image state indicator 644f accordingly.

図6Pでは、デバイス600は、タッチ感知面を使用して、戻るアフォーダンス644eに対応する位置でのタップジェスチャ650lを検出する。図6Qに示すようにタップジェスチャ650lを検出したことに応じて、デバイス600は、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースの表示を、ライブプレビュー630を含むカメラユーザインタフェースの表示に置き換える。 In FIG. 6P, device 600 uses the touch-sensitive surface to detect tap gesture 650l at a location corresponding to return affordance 644e. In response to detecting tap gesture 650l as shown in FIG. replace with

図6Qでは、デバイス600は、タッチ感知面を使用して、カメラポートレートモードアフォーダンス620dに対応する位置でのタップジェスチャ650mを検出する。図6Rでは、タップジェスチャ650mを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図6Tでは、ズームアフォーダンス622は、左にシフトしており、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示されている。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図6Rと図6Qで同一である。図6Rの更新されたライブプレビュー630は、図6Qのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図6Qのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。照明効果コントロール628の自然光選択によって示すように、ライブプレビューは、対象の環境内の自然光を使用して対象640を表示しており、照明効果を適用しない。照明効果コントロール628を使用して、メディアをキャプチャする際に使用/適用される照明効果のレベル(及びタイプ)を調整することができる。いくつかの実施形態では、照明効果の調整はまた、ライブプレビュー630に反映される。 In FIG. 6Q, device 600 uses its touch-sensitive surface to detect tap gesture 650m at a location corresponding to camera portrait mode affordance 620d. 6R, in response to detecting tap gesture 650m, device 600 displays a corrected set of indicators in indicator area 602, updated live preview 630, and updated control area 606. In FIG. The corrected set of indicators does not display the previously displayed animated image state indicator 602d (e.g., the newly selected mode is the function corresponding to the animated image state indicator 602d). ), including a previously displayed flash indicator 602a and a newly displayed f-value indicator 602e (e.g., the newly selected mode includes functions corresponding to flash indicator 602a and f-value indicator 602e). (because it is compatible with In some embodiments, the f-number indicator 602e provides an indication of the f-number (eg, numerical value). In FIG. 6T, zoom affordance 622 has been shifted to the left, and lighting effects controls 628 (which, when activated, can change lighting effects) are displayed within camera display area 604 . In some embodiments, the size, aspect ratio, and position of camera display area 604 are the same in FIGS. 6R and 6Q. The updated live preview 630 of FIG. 6R provides different visual effects compared to the live preview 630 of FIG. 6Q. For example, updated live preview 630 provides bokeh and/or lighting effects, whereas live preview 630 of FIG. 6Q does not provide bokeh and/or lighting effects. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the object in live preview 630 . In some embodiments, the zoom of objects in live preview 630 does not change regardless of changing the camera mode (photo mode vs. portrait mode). As indicated by the natural light selection of the lighting effects control 628, the live preview is displaying the object 640 using the natural light within the object's environment and does not apply any lighting effects. Lighting effects controls 628 may be used to adjust the level (and type) of lighting effects used/applied when capturing media. In some embodiments, adjustments to lighting effects are also reflected in live preview 630 .

図6Rでは、デバイス600は、タッチ感知面を使用して、照明効果コントロール628に対応する位置での左スワイプジェスチャ650nを検出して、スタジオ照明効果を選択する。図6Sでは、左スワイプジェスチャ650nを検出したことに応じて、デバイス600は、照明効果コントロール628を更新して、スタジオ照明効果が選択されることを示し、ライブプレビュー630の表示を更新して、スタジオ照明効果を含み、それにより、スタジオ照明効果を使用してキャプチャされたメディアがどのように見えるかの表現をユーザに提供する。デバイス600はまた、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。図6Sでは、光調整条件(例えば、カメラがポートレートモードにあるか、又は別の方法で照明効果を変化させることができるときに満たされる条件)が満たされているとの判定に従って、デバイス600は、コントロール領域606内に照明コントロールアフォーダンス614dを(例えば、追加のコントロールアフォーダンス614を拡張することによって、追加のユーザ入力を必要とせずに)表示する。 In FIG. 6R, device 600 uses the touch-sensitive surface to detect a left swipe gesture 650n at a location corresponding to lighting effect control 628 to select a studio lighting effect. In FIG. 6S, in response to detecting the left swipe gesture 650n, the device 600 updates the lighting effects control 628 to indicate that the studio lighting effect is selected, updates the display of the live preview 630, and It includes studio lighting effects, thereby providing the user with a representation of what media captured using the studio lighting effects would look like. Device 600 also displays lighting status indicator 602f within indicator area 602 . Lighting state indicator 602f includes an indication of the current value of lighting effects to be used/applied in capturing media. In FIG. 6S, upon determining that a light adjustment condition (e.g., a condition met when the camera is in portrait mode or otherwise capable of changing lighting effects) is met, the device 600 displays lighting control affordance 614d within control region 606 (eg, without requiring additional user input by extending additional control affordance 614).

図6Sでは、デバイス600は、タッチ感知面を使用して、照明コントロールアフォーダンス614dに対応する位置でのタップジェスチャ650oを検出する。図6Tでは、タップジェスチャ650oを検出したことに応じて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能な照明効果コントロール666に置き換え、現在の照明効果値(例えば、800ルクス)のインジケーション(例えば、カメラディスプレイ領域604内)を提供する。いくつかの実施形態では、インジケータ領域602内のインジケータの表示は維持される。いくつかの実施形態では、タップジェスチャ650oによって、インジケータ領域602内にインジケータを表示することが(例えば、上述のように、カメラディスプレイ領域606の境界をシフトすること、及びインジケータ領域602及びコントロール領域606をリサイズすることによって)停止される。 In FIG. 6S, device 600 uses the touch-sensitive surface to detect tap gesture 650o at a location corresponding to lighting control affordance 614d. In FIG. 6T, in response to detecting tap gesture 650o, device 600 replaces display of camera mode affordance 620 with adjustable lighting effect controls 666 and an indication of the current lighting effect value (eg, 800 lux). (eg, in camera display area 604). In some embodiments, the display of indicators within indicator area 602 is maintained. In some embodiments, tap gesture 650o causes indicators to be displayed within indicator region 602 (e.g., shifting the boundaries of camera display region 606, as described above, and displaying indicator region 602 and control region 606). ) is stopped by resizing the

図6Tでは、調整可能な照明効果コントロール666を表示している間に、デバイス600は、タッチ感知面を使用して、調整可能な照明効果コントロール666に対応する位置でのスワイプジェスチャ650pを検出して、照明効果値を低減する。図6Uでは、スワイプジェスチャ650oを検出したことに応じて、デバイス600は、照明効果値をより低くし、これはライブプレビュー630に反映され、より暗くなり、インジケーション(例えば、カメラディスプレイ領域604内)を更新された照明効果値(例えば、600ルクス)に更新し、インジケータ領域602内の照明状態インジケータ602fを更新して、更新された照明効果値を反映する。 In FIG. 6T, while displaying adjustable lighting effect control 666, device 600 uses its touch-sensitive surface to detect swipe gesture 650p at a location corresponding to adjustable lighting effect control 666. to reduce the lighting effect value. In FIG. 6U, in response to detecting swipe gesture 650o, device 600 lowers the lighting effect value, which is reflected in live preview 630, making it darker and providing an indication (e.g., in camera display area 604). ) to the updated lighting effect value (eg, 600 lux) and updating the lighting status indicator 602f in the indicator region 602 to reflect the updated lighting effect value.

図6Uでは、調整可能な照明効果コントロール666が表示される(かつ任意選択的に、インジケータ領域602が高さ低減モードにある)間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ650qを検出する。図6Vに示すように、タップジェスチャ650qを検出したことに応じて、デバイス600は、調整可能な照明効果コントロール666の表示を、カメラモードアフォーダンス620の表示に置き換える。いくつかの実施形態では、カメラディスプレイ領域606の境界がシフトアップし、インジケータ領域602及びコントロール領域606がサイズ変更された場合、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンして戻り、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。デバイス600はまた、カメラディスプレイ領域604内の照明効果値のインジケーションを表示することを停止するが、任意選択的に、照明効果コントロール628の表示を維持する。 In FIG. 6U, while adjustable lighting effect controls 666 are displayed (and optionally indicator region 602 is in height reduction mode), device 600 uses the touch-sensitive surface to A tap gesture 650q at a location corresponding to control affordance 614 is detected. In response to detecting tap gesture 650q, device 600 replaces display of adjustable lighting effects control 666 with display of camera mode affordance 620, as shown in FIG. 6V. In some embodiments, if the boundaries of camera display area 606 shift up and indicator area 602 and control area 606 are resized, device 600 adjusts the boundaries of camera display area 604 (with the same size and aspect ratio). while maintaining) and shift back down the visual boundary 608 , thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606 . Device 600 also stops displaying the indication of lighting effect values in camera display area 604 , but optionally keeps displaying lighting effect controls 628 .

図7A~図7Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。方法700は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 7A-7C are flow diagrams illustrating methods for accessing media controls using an electronic device, according to some embodiments. The method 700 includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on different sides of the electronic device (e.g., front camera, rear camera)). device (eg, 100, 300, 500, 600). Some acts of method 700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法700は、メディアコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 700 provides an intuitive way to access media controls. This method reduces the user's cognitive burden in accessing media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to access media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(702)。カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、606)を含む(704)。 An electronic device (eg, 600) displays a camera user interface (702) via a display device. The camera user interface includes (704) a camera display area (eg, 606) that includes a representation (eg, 630) of the field of view of one or more cameras.

カメラユーザインタフェースはまた、複数のカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含むカメラコントロール領域(例えば、606)を含む(706)。カメラコントロール領域内の複数のカメラ設定を制御する複数のコントロールアフォーダンスを提供することにより、ユーザが、複数のカメラ設定を迅速かつ容易にかつ変更及び/又は管理することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 The camera user interface also controls multiple camera settings (e.g. flash, timer, filter effects, f-number, aspect ratio, live photo, etc.) (e.g. changes camera modes) (e.g. takes pictures) Multiple control affordances (e.g. 620, 626) (e.g. selectable user interface objects) (e.g. proactive control affordances, shutter affordances, camera selection (e.g. activating different cameras (e.g. front to back)) A camera control area (eg, 606) including affordances, multiple camera mode affordances) is included (706). Providing multiple control affordances to control multiple camera settings within a camera control area allows a user to quickly and easily change and/or manage multiple camera settings. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life.

第1の既定の条件及び第2の既定の条件(例えば、デバイスの環境内の環境条件)(例えば、電子デバイスが暗い環境にある)(例えば、電子デバイスが三脚上にある)(例えば、電子デバイスが低光モードにある)(例えば、電子デバイスが特定のカメラモードにある)が満たされていない間に、電子デバイス(例えば、600)は、第1の既定の条件に関連付けられた第1のコントロールアフォーダンス(例えば、602b、602c)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、カメラユーザインタフェースを表示する(708)。 A first predefined condition and a second predefined condition (e.g., environmental conditions within the environment of the device) (e.g., the electronic device is in a dark environment) (e.g., the electronic device is on a tripod) (e.g., electronic The electronic device (e.g., 600) is in a first without displaying the control affordances (e.g., 602b, 602c) of (e.g., selectable user interface objects) and associated with a second predefined condition (e.g., selectable user interface objects) The camera user interface is displayed (708) without displaying the .

第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、条件の変化を検出する(710)。 While displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, the electronic device (eg, 600) detects a change in conditions ( 710).

条件の変化を検出したことに応じて(712)、第1の既定の条件(例えば、電子デバイスが暗い環境にある)が満たされている(例えば、現在満たされた)との判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス(例えば、614c、フラッシュ設定アフォーダンス)(例えば、第1の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(714)。第1の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンスを表示することは、第1のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting 712 a change in conditions, electronic A device (e.g., 600) corresponds to a first control affordance (e.g., 614c, flash setting affordance) (e.g., a camera setting that is activated or enabled as a result of a first predefined condition being met). control affordances) are displayed (eg, automatically, without requiring further user input) (714). Displaying the first control affordance upon determining that the first predetermined condition is met provides quick and convenient access to the first control affordance. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第1の所定の閾値(例えば、10ルクス)を下回ると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第1の所定の閾値を下回るときに、フラッシュ動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、フラッシュ動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、フラッシュ動作の制御のためのアフォーダンスの選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、フラッシュ動作の状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、自動(例えば、条件(例えば、カメラの視野内の光量)に基づいてリアルタイムでフラッシュを非アクティブ又はアクティブに変更する必要があるかを電子デバイスが判定する))を変更する、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light (e.g., amount of luminance (e.g., 20 lux, 5 lux)) within the field of view of one or more cameras falls below a first predetermined threshold (e.g., 10 lux), A first predetermined condition is met and the first control affordance is the affordance (eg, selectable user interface object) that controls the flash operation. By providing a first control affordance, which is an affordance for controlling flash operation when the amount of light within the field of view of the one or more cameras is below a first predetermined threshold, the user can control flash operation by: Access such controls quickly and easily when needed and/or likely to be used. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved. In some embodiments, the electronic device (eg, 600) receives user input corresponding to a selection of affordances for controlling flash operation, and in response to receiving the user input, the electronic device Change the flash to inactive or active in real time based on the state of operation (e.g. active (e.g. on), inactive (e.g. off), automatic (e.g. conditions (e.g. amount of light in the camera's field of view)) A user interface may be displayed that changes the electronic device determines if necessary)) and/or changes the state of the flash operation.

いくつかの実施形態では、電子デバイス(例えば、600)が第1のタイプのアクセサリ(例えば、601、安定化装置(例えば、三脚))に接続(例えば、物理的に接続)されていると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、タイマー動作(例えば、画像キャプチャタイマー、キャプチャ遅延タイマー)を制御するアフォーダンス(例えば、614a)(例えば、選択可能ユーザインタフェースオブジェクト)である。電子デバイスが第1のタイプのアクセサリに接続されているときに、タイマー動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、タイマー動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、タイマー動作を制御するアフォーダンス(例えば、630)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、タイマー動作の状態(例えば、メディアのキャプチャを開始した後のキャプチャ時間)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the electronic device (eg, 600) is connected (eg, physically connected) to a first type of accessory (eg, 601, stabilizer (eg, tripod)), A first predetermined condition is met and the first control affordance is an affordance (eg, 614a) (eg, a selectable user interface object) that controls a timer operation (eg, image capture timer, capture delay timer) . By providing a first control affordance, which is an affordance for controlling timer operation when the electronic device is connected to the first type of accessory, the user is provided with control over the timer operation. Access quickly and easily when needed and/or likely to be used. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved. In some embodiments, the electronic device (eg, 600) receives user input corresponding to selection of an affordance (eg, 630) that controls timer operation, and in response to receiving the user input, the electronic device may display a user interface to change the state of timer operation (eg, the capture time after starting media capture) and/or change the state of flash operation.

いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第2の所定の閾値(例えば、20ルクス)を下回ると、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンス(例えば、614b)(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第2の所定の閾値を下回るときに、低光キャプチャモードを制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、低光キャプチャモードの制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、低光キャプチャモードを制御するアフォーダンス(例えば、650d)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ))を変更するか、及び/又は低光キャプチャモードの状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light (e.g., amount of luminance (e.g., 20 lux, 5 lux)) within the field of view of one or more cameras falls below a second predetermined threshold (e.g., 20 lux), A first predetermined condition is met and the first control affordance is the affordance (eg, 614b) (eg, selectable user interface object) to control the low light capture mode. By providing a first control affordance, which is an affordance for controlling the low-light capture mode when the amount of light within the field of view of the one or more cameras is below a second predetermined threshold, the user can enable the low-light capture mode. to quickly and easily access the controls of when such controls are needed and/or likely to be used. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved. In some embodiments, the electronic device (e.g., 600) receives user input corresponding to selection of an affordance (e.g., 650d) controlling low light capture mode, and in response to receiving the user input: The electronic device changes the state of the low-light capture mode (e.g., active (e.g., on), inactive (e.g., off)) and/or displays a user interface to change the state of the low-light capture mode. be able to.

いくつかの実施形態では、第1のキャプチャモード(例えば、ポートレートモード)で画像をキャプチャするように電子デバイス(例えば、600)が構成されているときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、照明効果動作(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明)))を制御するアフォーダンス(例えば、614d)(例えば、選択可能ユーザインタフェースオブジェクト)である(718)。第1のキャプチャモードで画像をキャプチャするように電子デバイスが構成されているときに、照明効果動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、照明効果動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、650o)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応じて、電子デバイスは、照明効果の状態(例えば、照明の量)を変更するか、及び/又は照明効果動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, the first predefined condition is met when the electronic device (eg, 600) is configured to capture images in a first capture mode (eg, portrait mode). , the first control affordance is an affordance (e.g., 614d) that controls lighting effects operations (e.g., media lighting capture control (e.g., portrait lighting effects control (e.g., studio lighting, outline lighting, stage lighting))) ( For example, a selectable user interface object) (718). By providing a first control affordance, which is an affordance for controlling lighting effect operation when the electronic device is configured to capture images in the first capture mode, the user can control the lighting effect operation. to quickly and easily access when such controls are needed and/or likely to be used. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved. In some embodiments, the electronic device (e.g., 600) receives user input corresponding to selection of an affordance (e.g., 650o) that controls lighting effect operation, and in response to receiving the user input, electronically The device may display a user interface to change the state of the light effect (eg, amount of light) and/or change the state of light effect operation.

いくつかの実施形態では、照明効果動作を制御するアフォーダンス(例えば、614d)を表示している間に、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、614d)の選択(例えば、タップ)を受信する(720)。いくつかの実施形態では、照明効果動作を制御するアフォーダンス(例えば、614d)の選択を受信したことに応じて、電子デバイス(例えば、600)は、調整される(例えば、スライダ上の値(例えば、ティックマーク)間でスライダ上のスライダバーをドラッグする)と、1つ以上のカメラの視野の表現に適用された照明効果(例えば、照明)を調整する、照明効果動作(例えば、スライダ)を調整するアフォーダンス(例えば、666)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(722)。いくつかの実施形態では、調整された照明効果はまた、キャプチャされたメディアにも適用される(例えば、第1のコントロールアフォーダンスがスタジオ照明効果動作を制御するときに、スタジオ光に関連付けられた照明)。 In some embodiments, while displaying the affordance (eg, 614d) controlling the lighting effect operation, the electronic device (eg, 600) selects the affordance (eg, 614d) controlling the lighting effect operation. (eg, taps) are received (720). In some embodiments, the electronic device (eg, 600) is adjusted (eg, the value on the slider (eg, , tick marks)) and a lighting effect action (e.g., slider) that adjusts the lighting effect (e.g., lighting) applied to the representation of one or more camera views. The adjusting affordance (eg, 666) (eg, selectable user interface object) is displayed (722). In some embodiments, the adjusted lighting effect is also applied to the captured media (e.g., when the first control affordance controls the studio lighting effect operation, the lighting associated with the studio light ).

いくつかの実施形態では、第1のコントロールアフォーダンスを表示している間に、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた(例えば、それによって制御され得る)(例えば、第1のコントロールの特性又は状態を示す)電子デバイスの特性(例えば、設定)の現在の状態のインジケーション(例えば、602f)(例えば、コントロールの効果(例えば、フラッシュ動作がアクティブであることのインジケーション))を同時に表示する(724)。第1のコントロールアフォーダンスを表示している間に、同時に、電子デバイスの特性の現在の状態のインジケーションを表示することにより、ユーザが、第1のコントロールアフォーダンスを使用して、特性の現在の状態を迅速かつ容易に閲覧及び/又は変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、インジケーション(例えば、602a、602c)は、ユーザインタフェースの上部(例えば、電話の上部)に表示される。いくつかの実施形態では、カメラトグル(例えば、前カメラと後カメラとの間をトグルする)制御を変更したことに応じて、インジケーションが表示される。 In some embodiments, while displaying the first control affordance, the electronic device (eg, 600) is associated with (eg, can be controlled by) the first control affordance (eg, an indication (e.g., 602f) of the current state of a property (e.g., setting) of the electronic device (e.g., indicating the property or state of the first control) (e.g., an indication that the effect of the control (e.g., a flash operation is active); (724). By simultaneously displaying an indication of the current state of the property of the electronic device while displaying the first control affordance, the user can use the first control affordance to control the current state of the property. can be quickly and easily viewed and/or changed. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, the indications (eg, 602a, 602c) are displayed at the top of the user interface (eg, at the top of the phone). In some embodiments, an indication is displayed in response to changing the camera toggle (eg, toggling between the front and back cameras) control.

いくつかの実施形態では、特性は1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、インジケーションを表示することは、特性が1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う。いくつかの実施形態では、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。いくつかの実施形態では、特性が非アクティブ状態にある(例えば、非アクティブ状態にあるように変更される)との判定に従って、インジケーションは、表示されないか、又は現在表示されている場合は表示されることを停止する。 In some embodiments, the characteristic has one or more active states and one or more inactive states, and displaying the indication indicates that the characteristic is in at least one of the one or more active states. Follow the judgment that there is. In some embodiments, some actions need to be active before the indication associated with the action is displayed within the camera user interface, while some actions require the An indication need not be active before it is displayed within the camera user interface. In some embodiments, the indication is not displayed, or is displayed if currently displayed, upon determining that the property is in an inactive state (e.g., is changed to be in an inactive state). stop being

いくつかの実施形態では、特性は、第1のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が有効化されていることである。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0~10ルクスの範囲)にあると判定すると、フラッシュ動作はアクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にあると判定するとアクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the characteristic is a first flash operation setting and the current state of the characteristic is flash operation enabled. In some embodiments, when the flash is set to auto, the electronic device (eg, 600) detects that the amount of light within the field of view of one or more cameras is within the flash range (eg, 0-10 lux range). If so, the flash operation is active. Flash operation, which is activated when an electronic device determines that the amount of light within the field of view of one or more cameras is within the flash range, reduces power usage by allowing the user to use the device more efficiently and improve device battery life.

いくつかの実施形態では、特性は、第2のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が無効化されていることである(例えば、示す、示す表現を表示する)。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0~10ルクスの範囲)にないと判定すると、フラッシュ動作は非アクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にないと判定すると非アクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、特性は、画像キャプチャモード設定であり、特性の現在の状態は、画像キャプチャモードが有効化されていることであり、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応じて、静止画像及びビデオ(例えば、動画)をキャプチャするように構成されている。特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであるときに、静止画像及びビデオをキャプチャすることにより、ユーザが、静止画像及びビデオを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second flash behavior setting and the current state of the characteristic is that flash behavior is disabled (eg, indicate, display indicated representation). In some embodiments, when the flash is set to auto, the electronic device (eg, 600) detects that the amount of light within the field of view of one or more cameras is within the flash range (eg, 0-10 lux range). If not, the flash operation is inactive. Flash behavior, which becomes inactive when an electronic device determines that the amount of light within the field of view of one or more cameras is not within the flash range, reduces power usage by allowing the user to use the device more efficiently. Reduce and improve device battery life. In some embodiments, the property is an image capture mode setting, the property's current state is that the image capture mode is enabled, and the electronic device (eg, 600) is capturing media. It is configured to capture still images and video (eg, moving images) in response to an input (eg, a single input) corresponding to the request. Capturing still images and video when the property is an image capture mode setting and the property's current state is that the image capture mode is enabled allows the user to quickly capture still images and video. and easy to capture. By performing an action when a set of conditions are met without the need for further user input, device operability is enhanced and user-device interfaces (e.g., manipulating/interacting with device by helping users make appropriate inputs and reducing user errors), as well as by enabling users to use devices more quickly and efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、特性は、第2の画像キャプチャモード設定であり、特性の現在の状態は、第2の画像キャプチャモードが有効化されていることである。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている。いくつかの実施形態では、カメラメディアに対する要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラを介して、高ダイナミックレンジイメージング画像であるメディアをキャプチャする。特性が第2の画像キャプチャモード設定であり、特性の現在の状態が、第2の画像キャプチャモードが有効化されていることであるときに、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャすることにより、ユーザが、高ダイナミックレンジイメージング効果を使用してメディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second image capture mode setting and the current state of the characteristic is that the second image capture mode is enabled. In some embodiments, an electronic device (eg, 600) captures media using high dynamic range imaging effects in response to an input (eg, a single input) corresponding to a request to capture media. is configured as In some embodiments, in response to receiving a request for camera media, the electronic device (eg, 600) captures media that are high dynamic range imaging images via one or more cameras. Capture media using high dynamic range imaging effects when the property is the second image capture mode setting and the property's current state is that the second image capture mode is enabled This allows users to quickly and easily capture media with high dynamic range imaging effects. By performing an action when a set of conditions are met without the need for further user input, device operability is enhanced and user-device interfaces (e.g., manipulating/interacting with device by helping users make appropriate inputs and reducing user errors), as well as by enabling users to use devices more quickly and efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、表示デバイスの第1の側に(例えば、ディスプレイ領域の底部に)隣接して表示され、インジケーションは、第1の側とは反対側(カメラディスプレイ領域の上部)の表示デバイスの第2の側(例えば、1つ以上のカメラの位置に最も近い側)に隣接して表示される。 In some embodiments, the camera control area (eg, 606) is displayed adjacent to a first side of the display device (eg, at the bottom of the display area) and the indications are distinct from the first side. It is displayed adjacent to the second side (eg, the side closest to the position of the one or more cameras) of the opposite side (top of the camera display area) of the display device.

いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて(726)、第1のコントロールアフォーダンスが第1のタイプ(例えば、対応するインジケーションが常に示されているタイプ(例えば、フラッシュコントロール))のものであるとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示する(例えば、第1のコントロールに関連付けられた特性の状態にかかわらず、第2のインジケーションが表示される)(728)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるとの判定、及び第1のコントロールアフォーダンスに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)がアクティブ状態にあるとの判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示する(730)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応じて、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるとの判定、及び第1のコントロールアフォーダンスに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)が非アクティブ状態にあるとの判定に従って、電子デバイスは、第1のコントロールアフォーダンスに関連付けられた第2のインジケーションの表示をやめる。いくつかの実施形態では、コントロールに関連付けられたいくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。 In some embodiments, in response to displaying 726 the first control affordance, the first control affordance is of a first type (eg, a type whose corresponding indication is always shown (eg, flash control)), the electronic device (eg, 600) displays a second indication associated with the first control affordance (eg, a second indication associated with the first control). A second indication is displayed regardless of the state of the property) (728). In some embodiments, in response to displaying the first control affordance, the first control affordance is of a second type that differs from the first type (e.g., the corresponding indication is conditionally shown type) and determining that a second property (e.g., setting) of the electronic device (e.g., 600) associated with the first control affordance is in an active state, the electronic device , displays a second indication associated with the first control (730). In some embodiments, in response to displaying the first control affordance, the first control affordance is of a second type that differs from the first type (e.g., the corresponding indication is conditionally shown type) and determining that a second characteristic (eg, setting) of the electronic device (eg, 600) associated with the first control affordance is in an inactive state. ceases to display the second indication associated with the first control affordance. In some embodiments, some actions associated with controls need to be active before indications associated with the actions are displayed within the camera user interface, while some actions Indications associated with motion need not be active before they are displayed within the camera user interface.

条件の変化を検出したことに応じて(712)、第2の既定の条件(例えば、電子デバイスが三脚上に位置する)(例えば、第1の既定の条件とは異なる既定の条件)が満たされている(例えば、現在満たされた)との判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンス(例えば、タイマー設定アフォーダンス)(例えば、第2の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(716)。第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示することは、第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。動作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、コントロールアフォーダンスは、既定の条件に関連付けられたカメラ設定を表す外観(例えば、フラッシュ設定を表すカミナリ)を有する。いくつかの実施形態では、コントロールアフォーダンスが選択されると、既定の条件に関連付けられたカメラ設定の状態を変更するための設定インタフェースが表示される。 In response to detecting 712 a change in conditions, a second predefined condition (eg, the electronic device is positioned on a tripod) (eg, a predefined condition different from the first predefined condition) is met. (e.g., currently satisfied), the electronic device (e.g., 600) selects a second control affordance (e.g., a timer setting affordance) (e.g., a The resulting control affordances corresponding to camera settings that are activated or enabled are displayed (eg, automatically, without requiring further user input) (716). Displaying the second control affordance upon determining that the second predetermined condition is met provides quick and convenient access to the second control affordance. Device operability is enhanced by reducing the number of inputs required to perform an action, reducing the user-device interface (e.g., allowing the user to provide appropriate input when operating/interacting with the device). and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved. In some embodiments, the control affordance has an appearance representing the camera settings associated with the predefined condition (eg, lightning representing flash settings). In some embodiments, when a control affordance is selected, a settings interface is displayed for changing the state of camera settings associated with the predefined condition.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1及び第2の既定の条件が満たされているとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示する。条件の変化を検出したことに応じて、第1及び第2の既定の条件が満たされているとの判定に従って、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示することにより、ユーザに、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, further in response to detecting a change in conditions, and following determining that the first and second predetermined conditions are met, the electronic device (eg, 600) performs the first and a second control affordance are displayed simultaneously. In response to detecting a change in conditions, prompting a user by simultaneously displaying a first control affordance and a second control affordance in accordance with a determination that first and second predetermined conditions are met. , provides quick and convenient access to the first control affordance and the second control affordance. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないとの判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示することをやめる。条件の変化を検出したことに応じて、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないとの判定に従って、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示することをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, further in response to detecting a change in conditions, the electronic A device (eg, 600) stops displaying a second control affordance while displaying a first control affordance. responsive to detecting a change in conditions, displaying a first control affordance in accordance with determining that a first predefined condition is met and a second predefined condition is not met; , by ceasing to display the second control affordance, the user can quickly and easily access the control affordances that are likely to be needed and/or used, while the user can access the control affordances that are likely to be needed and/or used. No quick and easy access to control affordances. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life.

いくつかの実施形態では、更に、条件の変化を検出したことに応じて、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているとの判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示することをやめる。条件の変化を検出したことに応じて、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているとの判定に従って、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示することをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、それぞれの既定の条件が満たされると、既定の条件に関連付けられたそれぞれのアフォーダンスのみが表示される。いくつかの実施形態では、電子は、複数の追加のコントロールアフォーダンス(例えば、楕円アフォーダンス)にナビゲートするアフォーダンス(例えば、614)の選択を受信する。いくつかの実施形態では、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンス(例えば、614)の選択を受信したことに応じて、電子デバイス(例えば、600)は、(第1のコントロール及び/又は第2のコントロールアフォーダンスを含む)カメラユーザインタフェース内の複数のコントロールアフォーダンス(例えば、626)のうちの少なくとも一部を表示する。いくつかの実施形態では、既定の条件が満たされると、電子デバイス(例えば、600)は、アフォーダンスが複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスをポップアウトするとアニメーションを表示することができる。いくつかの実施形態では、複数のコントロールアフォーダンスは、第1又は第2のコントロールアフォーダンスのうちの少なくとも1つを含む、複数の追加のコントロールアフォーダンス(例えば、複数のカメラ設定アフォーダンスを表示するアフォーダンス)にナビゲートするアフォーダンス(例えば、618)を含む。これらの実施形態のうちのいくつかでは、第1の既定の条件が満たされているとの判定に従って、第1のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。これらの実施形態のうちのいくつかでは、第2の既定の条件が満たされているとの判定に従って、第2のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。 In some embodiments, further, in response to detecting a change in conditions, according to determining that the first predetermined condition is not met and the second predetermined condition is met, The electronic device (eg, 600) stops displaying the first control affordance while displaying the second control affordance. responsive to detecting a change in conditions, displaying a second control affordance in accordance with determining that a first predefined condition is not met and a second predefined condition is met; , the user can quickly and easily access the control affordances that are likely to be needed and/or used, while the user can quickly and easily access the control affordances that are likely to be needed and/or used. No quick and easy access to non-control affordances. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, only the respective affordance associated with the predefined condition is displayed when the respective predefined condition is met. In some embodiments, the electronic receives a selection of affordances (eg, 614) that navigate to multiple additional control affordances (eg, elliptical affordances). In some embodiments, in response to receiving a selection of an affordance (eg, 614) to navigate to multiple additional control affordances, the electronic device (eg, 600) may (first control and/or display at least a portion of the plurality of control affordances (eg, 626) within the camera user interface (including the second control affordance); In some embodiments, when a predetermined condition is met, the electronic device (eg, 600) can display an animation when the affordance pops out to navigate to multiple additional control affordances. In some embodiments, the plurality of control affordances is a plurality of additional control affordances (e.g., affordances representing multiple camera setting affordances) including at least one of the first or second control affordances. Includes navigating affordances (eg, 618). In some of these embodiments, the first affordance is displayed adjacent to affordances that navigate to the plurality of additional control affordances upon determining that a first predetermined condition is met. (e.g., sounded by bounders with additional control affordances next to additional control affordances). In some of these embodiments, the second affordance is displayed adjacent to the affordance that navigates to the plurality of additional control affordances upon determining that a second predetermined condition is met. (e.g., sounded by bounders with additional control affordances next to additional control affordances).

いくつかの実施形態では、1つ以上のカメラの視野の表現は、第1のコントロールアフォーダンス及び/又は第2のコントロールアフォーダンスを含むカメラユーザインタフェースの一部分にわたって(例えば、その上に)延びる。いくつかの実施形態では、カメラユーザインタフェースは、表示デバイスの表示エリアの全体に対して延びる。いくつかの実施形態では、表現(例えば、プレビュー)は、カメラユーザインタフェースに含まれる全てのコントロールの下に表示される(例えば、ボタンが表現の部分の上に示されるように透明又は半透明に表示される)。 In some embodiments, representations of the field of view of one or more cameras extend over (eg, over) a portion of the camera user interface including the first control affordance and/or the second control affordance. In some embodiments, the camera user interface extends over the entire display area of the display device. In some embodiments, the representation (e.g., preview) is displayed below all controls contained in the camera user interface (e.g., transparent or semi-transparent as shown above portions of the representation). Is displayed).

なお、方法700に関して上述したプロセス(例えば、図7A~図7C)の詳細はまた、後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processes described above with respect to method 700 (eg, FIGS. 7A-7C) are also applicable in an analogous manner to the methods described below. For example, methods 900, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 700. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図8A~図8Vは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9A~図9Cにおける処理を含む、以下で説明する処理を例示するために使用される。 8A-8V illustrate exemplary user interfaces for displaying media controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 9A-9C.

図8Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図8Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビューは、対象840及び周囲環境を含む。図8Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 8A shows an electronic device 600 displaying a live preview 630 optionally extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 . In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 . The camera user interface of FIG. 8A includes indicator area 602 and control area 606, which are overlaid on live preview 630 so that the indicators and controls can be displayed simultaneously with the live preview. Camera display area 604 does not substantially overlap with indicators or controls. In this example, the live preview includes object 840 and surroundings. The camera user interface of FIG. 8A includes a visual border 608 that indicates the border between indicator area 602 and camera display area 604 and the border between camera display area 604 and control area 606 .

図8Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。アニメーション化された画像状態インジケータ602dは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 As shown in FIG. 8A, indicator area 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator region 602 includes flash indicator 602a and animated image state indicator 602d. Flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). Animated image state indicator 602d indicates whether the camera is configured to capture a single image or multiple images (eg, in response to detecting activation of shutter affordance 610). .

図8Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図8Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 8A, camera display area 604 includes live preview 630 and zoom affordance 622 . As shown in FIG. 8A, control area 606 overlays live preview 630 and optionally includes a colored (eg, gray, translucent) overlay.

図8Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図8Aにおいて、カメラモードアフォーダンス620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。メディアコレクション624は、最近キャプチャされた写真などのメディア(例えば、写真)の表現を含む。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及び現在選択されているモードに基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 8A, control area 606 includes camera mode affordance 620, portion of media collection 624, additional control affordance 614, shutter affordance 610, and camera switcher affordance 612. As shown in FIG. Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes. In FIG. 8A, camera mode affordances 620a-620e are displayed, with "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. Media collection 624 includes representations of media (eg, photographs), such as recently captured photographs. Additional control affordances 614 allow the user to access additional camera controls. Shutter affordance 610, when activated, causes device 600 to capture media (eg, photos) based on the current state of live preview 630 and the currently selected mode. The captured media is stored locally on the electronic device and/or sent to a remote server for storage. Camera switcher affordance 612, when activated, causes device 600 to switch to show different camera views in live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図8Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する位置での上スワイプジェスチャ850a(コントロール領域606からインジケータ領域602に向かうスワイプ入力)を検出する。上スワイプジェスチャ850aを検出したことに応じて、デバイス600は、図8Bのユーザインタフェースを表示する。あるいは、図8Aでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850bを検出する。タップジェスチャ850bを検出したことに応じて、デバイス600は、図8Bのユーザインタフェースを同様に表示する。 In FIG. 8A, device 600 uses a touch-sensitive surface to detect an up swipe gesture 850a (a swipe input from control area 606 toward indicator area 602) at a location corresponding to camera display area 604. In FIG. In response to detecting swipe up gesture 850a, device 600 displays the user interface of FIG. 8B. Alternatively, in FIG. 8A, device 600 detects tap gesture 850b at a location corresponding to additional control affordance 614 using the touch-sensitive surface. In response to detecting tap gesture 850b, device 600 similarly displays the user interface of FIG. 8B.

図8Bに示すように、上スワイプジェスチャ850a又はタップジェスチャ850bを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを表示することを停止する。いくつかの例では、デバイス600は、高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a~626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a~626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、シャッタータイマーを設定するプロセスを開始する。 As shown in FIG. 8B, in response to detecting an up swipe gesture 850a or a tap gesture 850b, device 600 shifts camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608. up, thereby decreasing the height of the indicator area 602 and increasing the height of the control area 606. In addition to reducing the height of indicator region 602, device 600 stops displaying flash indicator 602a and animated image status indicator 602d. In some examples, device 600 stops displaying any indicators within indicator region 602 while in the height reduction mode. In addition to increasing the height of control region 606, device 600 replaces display of camera mode affordance 620 with camera setting affordance 626, which includes a first set of camera setting affordances 626a-626e. Camera setting affordances 626a-626e, when activated, change (or have initiated a process to change) camera settings. For example, affordance 626a, when activated, turns the flash on and off, and affordance 626d, when activated, initiates the process of setting the shutter timer.

図8Bでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する位置での下スワイプジェスチャ850c(インジケータ領域602からコントロール領域606に向かうスワイプ入力)を検出する。下スワイプジェスチャ850cを検出したことに応じて、デバイス600は、図8Cのユーザインタフェースを表示する。あるいは、図8Bでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850dを検出する。タップジェスチャ850dを検出したことに応じて、デバイス600は、図8Cのユーザインタフェースを同様に表示する。 In FIG. 8B, device 600 uses the touch-sensitive surface to detect a down swipe gesture 850c (a swipe input from indicator area 602 toward control area 606) at a location corresponding to camera display area 604. In FIG. In response to detecting down swipe gesture 850c, device 600 displays the user interface of FIG. 8C. Alternatively, in FIG. 8B, device 600 detects tap gesture 850d at a location corresponding to additional control affordance 614 using the touch-sensitive surface. In response to detecting tap gesture 850d, device 600 similarly displays the user interface of FIG. 8C.

図8Cに示すように、下スワイプジェスチャ850c又はタップジェスチャ850dを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの例では、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを再表示する。コントロール領域606の高さの低減に加えて、デバイス600は、カメラ設定アフォーダンス626の表示を、カメラモードアフォーダンス620に置き換える。図8Cでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置での右スワイプジェスチャ850eを検出する。 As shown in FIG. 8C, in response to detecting a down swipe gesture 850c or a tap gesture 850d, device 600 shifts camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608. down, thereby increasing the height of the indicator area 602 and decreasing the height of the control area 606. In some examples, device 600 redisplays flash indicator 602a and animated image state indicator 602d. In addition to reducing the height of control area 606 , device 600 replaces the display of camera settings affordance 626 with camera mode affordance 620 . In FIG. 8C, device 600 detects right swipe gesture 850e at a location corresponding to media collection 624 using its touch-sensitive surface.

図8Dに示すように、右スワイプジェスチャ850eを検出したことに応じて、デバイス600は、メディアコレクション624の残りの部分をディスプレイ上にスライドし、追加のコントロールアフォーダンス614をカバーする。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示することを停止する。図8Dでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置での左スワイプジェスチャ850fを検出する。 In response to detecting right swipe gesture 850e, device 600 slides the remainder of media collection 624 onto the display to cover additional control affordances 614, as shown in FIG. 8D. As a result, device 600 stops displaying additional control affordance 614 . In FIG. 8D, device 600 detects a left swipe gesture 850f at a location corresponding to media collection 624 using its touch-sensitive surface.

図8Eに示すように、左スワイプジェスチャ850fを検出したことに応じて、デバイス600は、メディアコレクション624を左方向にディスプレイから部分的にオフするようにスライドし、追加のコントロールアフォーダンス614を見せる。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示する。図8Eでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604(ライブプレビュー630上)に対応する位置での左スワイプジェスチャ850gを検出する。 As shown in FIG. 8E, in response to detecting left swipe gesture 850f, device 600 slides media collection 624 leftward partially off the display, revealing additional control affordance 614. As shown in FIG. As a result, device 600 displays additional control affordance 614 . In FIG. 8E, device 600 uses its touch-sensitive surface to detect left swipe gesture 850g at a location corresponding to camera display area 604 (on live preview 630).

左スワイプジェスチャ850g(図8E)を検出したことに応じて、デバイス600は、図8F~図8Hのグラフィカルビュー間で遷移する。あるいは(又は加えて)、左スワイプジェスチャ850g(図8E)の開始を検出したことに応じて、デバイス600は、図8F~図8Hのグラフィカルビュー間での遷移を開始し、図8F~図8Gに示すように、遷移は、(ジェスチャのリフトオフを検出することなく)左スワイプジェスチャ850gが進行するにつれて継続する。 In response to detecting left swipe gesture 850g (FIG. 8E), device 600 transitions between the graphical views of FIGS. 8F-8H. Alternatively (or in addition), in response to detecting the initiation of left swipe gesture 850g (FIG. 8E), device 600 initiates a transition between the graphical views of FIGS. , the transition continues as the left swipe gesture 850g progresses (without detecting liftoff of the gesture).

図8Fに示すように、デバイス600は、ライブプレビュー630をシフトすることなく、カメラディスプレイ領域604の境界を左(左スワイプジェスチャ850gの方向)にシフトする。カメラディスプレイ領域604をシフトすることにより、視覚境界部608の垂直部分が表示され、カメラディスプレイ領域604が退去した領域内に着色された(例えば、灰色)オーバーレイが表示される(例えば、ディスプレイの右側に、それによって、デバイス600が左スワイプジェスチャ850gを検出していることをユーザに示す)。図8Fにおいて、視覚境界部608の一部分は、リーダーによりわかりやすくするためにデバイス600の外側に(左側)表示され、デバイス600のユーザインタフェースのビジュアル要素ではない。図8Fでは、デバイス600は、インジケータ領域602のインジケータ602a及び602dを表示することを停止する。同様に、デバイス600は、カメラモードアフォーダンス620を更新して、620bを左にスライドしてディスプレイからオフにし、かつ「Pano」カメラモード620fを右からディスプレイ上にスライドする。「Photo」カメラモードは、もはや現在のモードであると示されず、代わりに、ポートレートカメラモードが、(「ポートレート」カメラモードアフォーダンス620dのテキストを太字にすることによって、及び/又はディスプレイの中心に置かれることによって)現在のモードであると示される。図8Fでは、左スワイプ入力850gに応じて、デバイス600はまた、任意選択的に触知出力860を提供して、ユーザにカメラモードが変更されていることを示す。 As shown in FIG. 8F, device 600 shifts the boundaries of camera display area 604 to the left (in the direction of left swipe gesture 850g) without shifting live preview 630 . By shifting the camera display area 604, the vertical portion of the visual border 608 is displayed and a colored (eg, gray) overlay is displayed within the area where the camera display area 604 has moved (eg, the right side of the display). , thereby indicating to the user that device 600 is detecting left swipe gesture 850g). In FIG. 8F, a portion of visual boundary 608 is displayed outside (to the left) of device 600 for clarity by a reader and is not a visual element of device 600's user interface. 8F, device 600 stops displaying indicators 602a and 602d in indicator region 602. In FIG. Similarly, the device 600 updates the camera mode affordance 620 to slide 620b left off the display and "Pano" camera mode 620f slide right onto the display. The "Photo" camera mode is no longer indicated as the current mode; instead, the portrait camera mode is indicated (by bolding the text of the "Portrait" camera mode affordance 620d and/or centering the display). ) is indicated as the current mode. In FIG. 8F, in response to left swipe input 850g, device 600 optionally also provides tactile output 860 to indicate to the user that the camera mode has changed.

図8Gでは、デバイス600は、カメラディスプレイ領域604を着色された(例えば、灰色、半透明)オーバーレイと重ね合わせ、及び/又はデバイス600は、ライブプレビュー630を暗くし、及び/又はデバイス600は、ディスプレイを暗くし、かつ/又はデバイス600は、ディスプレイ(ライブプレビュー630を含む)をぼかす。 In FIG. 8G, the device 600 overlays the camera display area 604 with a colored (eg, gray, translucent) overlay and/or the device 600 darkens the live preview 630 and/or the device 600 Dim the display and/or device 600 blurs the display (including live preview 630).

図8Hでは、左スワイプジェスチャ850gを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図8Hでは、ズームアフォーダンス622は、左にシフトしており、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示されている。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図8Eと図8Hで同一である。図8Hの更新されたライブプレビュー630は、図8Eのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図8Eのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。 In FIG. 8H, in response to detecting left swipe gesture 850g, device 600 displays a corrected set of indicators in indicator area 602, updated live preview 630, and updated control area 606. . The corrected set of indicators does not display the previously displayed animated image state indicator 602d (e.g., the newly selected mode is the function corresponding to the animated image state indicator 602d). ), including a previously displayed flash indicator 602a and a newly displayed f-value indicator 602e (e.g., the newly selected mode includes functions corresponding to flash indicator 602a and f-value indicator 602e). (because it is compatible with ). In some embodiments, the f-number indicator 602e provides an indication of the f-number (eg, numerical value). In FIG. 8H, zoom affordance 622 has been shifted to the left, and lighting effects control 628 (which, when activated, can change lighting effects) is displayed within camera display area 604 . In some embodiments, the size, aspect ratio, and position of camera display area 604 are the same in FIGS. 8E and 8H. The updated live preview 630 of Figure 8H provides a different visual effect compared to the live preview 630 of Figure 8E. For example, the updated live preview 630 provides bokeh effects and/or lighting effects, whereas the live preview 630 of FIG. 8E does not provide bokeh effects and/or lighting effects. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the object in live preview 630 . In some embodiments, the zoom of objects in live preview 630 does not change regardless of changing the camera mode (photo mode vs. portrait mode).

図8Eに戻ると、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630上ではなく、カメラモードアフォーダンス620に対応する位置(コントロール領域606内)での左スワイプジェスチャ850hを検出する。ポートレートカメラモードに遷移している間にカメラディスプレイ領域604をシフトさせるスワイプジェスチャ850gとは対照的に、デバイスは、カメラディスプレイ領域604をシフトすることなく、図8Hのポートレートカメラモードに遷移する。したがって、デバイスは、カメラモードを遷移するための入力のいずれかを受信することができるが、更新されたカメラモードへの遷移中に異なるアニメーションを表示する。 Returning to FIG. 8E, device 600 uses the touch-sensitive surface to perform a left swipe gesture at a location (within control region 606) corresponding to camera mode affordance 620, but not on live preview 630 within camera display region 604. 850h is detected. The device transitions to portrait camera mode in FIG. 8H without shifting camera display area 604, in contrast to swipe gesture 850g, which shifts camera display area 604 while transitioning to portrait camera mode. . Thus, the device can receive either input to transition camera modes, but display a different animation during the transition to the updated camera mode.

図8Hでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する位置でのタップジェスチャ850iを検出する。図8Iに示すように、タップジェスチャ850iを検出したことに応じて、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びf値インジケータ602eを表示することを停止する。いくつかの例では、デバイス600は、インジケータ領域の高さ低減モードにある間にインジケータ領域602内の任意のインジケータを表示することを停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第2の1組のカメラ設定アフォーダンス626a、626c、626d~626fを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a、626c、626d~626fは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスとは異なる。例えば、アフォーダンス626aは、写真カメラモード及びポートレートカメラモードの両方に対して表示されるが、ライブフォトを有効化/無効化するアフォーダンス626bは、ポートレートカメラモードに対して表示されず、代わりに、アクティブ化されると、f値を設定するプロセスを開始する、アフォーダンス626fが表示される。いくつかの実施形態では、カメラディスプレイ領域604上の図8Hでの上スワイプジェスチャを検出することにより、デバイス600に、図8Iのユーザインタフェースを同様に表示させる。 8H, device 600 detects tap gesture 850i at a location corresponding to additional control affordance 614 using the touch-sensitive surface. As shown in FIG. 8I, in response to detecting tap gesture 850i, device 600 shifts up camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, thereby , decreases the height of indicator area 602 and increases the height of control area 606 . In addition to reducing the height of indicator region 602, device 600 stops displaying flash indicator 602a and f-value indicator 602e. In some examples, the device 600 stops displaying any indicators within the indicator region 602 while in the indicator region height reduction mode. In addition to increasing the height of control area 606, device 600 replaces display of camera mode affordances 620 with camera setting affordances 626 including a second set of camera setting affordances 626a, 626c, 626d-626f. . Camera setting affordances 626a, 626c, 626d-626f, when activated, change (or have initiated a process for changing) camera settings. The first set of camera setting affordances is different than the second set of camera setting affordances. For example, affordance 626a is displayed for both photo camera mode and portrait camera mode, but affordance 626b to enable/disable Live Photos is not displayed for portrait camera mode, instead , is displayed affordance 626f that, when activated, initiates the process of setting the f value. In some embodiments, detecting the swipe up gesture in FIG. 8H on camera display area 604 causes device 600 to similarly display the user interface in FIG. 8I.

図8Iでは、デバイス600は、タッチ感知面を使用して、ポートレートカメラモードにある間に、アスペクト比コントロールアフォーダンス626cに対応する位置(コントロール領域606内)でのタップジェスチャ850jを検出する。 In FIG. 8I, device 600 uses its touch-sensitive surface to detect tap gesture 850j at a location (within control region 606) corresponding to aspect ratio control affordance 626c while in portrait camera mode.

図8Jでは、タップジェスチャ850jを検出したことに応じて、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を拡張して、調整可能なアスペクト比コントロール818を表示し、これは、アクティブ化されると(例えば、タップにより)、カメラディスプレイ領域604のアスペクト比を変更する、複数のアフォーダンス818a~1818dを含む。図8Jでは、4:3のアスペクト比アフォーダンス818bは、太字化されて、カメラディスプレイ領域604のアスペクト比が4:3(非正方形のアスペクト比)であることを示す。図8Jでは、調整可能なアスペクト比コントロール818を表示している間に、デバイス600は、タッチ感知面を使用して、正方形(スクエア)のアスペクト比アフォーダンス818aに対応する位置でのタップジェスチャ850kを検出する。 In FIG. 8J, in response to detecting tap gesture 850j, device 600 expands display of aspect ratio control affordance 626c to display adjustable aspect ratio control 818, which, when activated, It includes a plurality of affordances 818a-1818d that change the aspect ratio of the camera display area 604 (eg, by tapping). In FIG. 8J, the 4:3 aspect ratio affordance 818b is bolded to indicate that the camera display area 604 aspect ratio is 4:3 (a non-square aspect ratio). In FIG. 8J, while displaying adjustable aspect ratio control 818, device 600 uses the touch-sensitive surface to perform tap gesture 850k at a location corresponding to square aspect ratio affordance 818a. To detect.

図8Kでは、タップジェスチャ850kを検出したことに応じて、デバイス600は、カメラディスプレイ領域604のアスペクト比を正方形に変更する。その結果、デバイス600はまた、インジケータ領域602及びコントロール領域606の一方又は両方の高さを増加させる。図8Kに示すように、照明効果コントロール628は、コントロール領域606の高さが増加したため、現在、コントロール領域606内に表示される。 In FIG. 8K, in response to detecting tap gesture 850k, device 600 changes the aspect ratio of camera display area 604 to square. As a result, device 600 also increases the height of one or both of indicator region 602 and control region 606 . As shown in FIG. 8K, lighting effect controls 628 are now displayed within control area 606 because the height of control area 606 has been increased.

図8Kでは、デバイス600は、タッチ感知面を使用して、「Photo」カメラモード620cに対応する位置でのタップジェスチャ850lを検出して、カメラが動作しているモードを変更する。 In FIG. 8K, device 600 uses the touch-sensitive surface to detect tap gesture 850l at a location corresponding to "Photo" camera mode 620c to change the mode in which the camera is operating.

図8Lでは、タップジェスチャ850lを検出したことに応じて、デバイス600は、ポートレートカメラモードから写真カメラモードにカメラモードを変更する。カメラモードが変更され、f値インジケータ602eがもはや表示されていないが、カメラディスプレイ領域604のサイズ、アスペクト比、及び位置は、図8K及び図8Lの両方において同じである。「Photo」カメラモードアフォーダンスは、現在、太字化されて、写真カメラモードが現在アクティブであることを示す。 In FIG. 8L, in response to detecting tap gesture 850l, device 600 changes camera mode from portrait camera mode to photo camera mode. The size, aspect ratio, and position of camera display area 604 are the same in both FIGS. 8K and 8L, although the camera mode has changed and f-number indicator 602e is no longer displayed. The "Photo" camera mode affordance is now bolded to indicate that the photo camera mode is currently active.

図8Lでは、デバイス600は、タッチ感知面を使用して、アスペクト比インジケータ602gに対応する位置でのタップジェスチャ850mを検出する。図8Kでは、タップジェスチャ850mを検出したことに応じて、デバイス600は、コントロール領域606内のカメラモードアフォーダンス620の表示を、調整可能なアスペクト比コントロール818の表示に置き換え、これは、アクティブ化されると(例えば、タップにより)、上述のように、カメラディスプレイ領域604のアスペクト比を変更する、アフォーダンス818a~1818dを含む。 In FIG. 8L, device 600 uses the touch-sensitive surface to detect tap gesture 850m at a location corresponding to aspect ratio indicator 602g. In FIG. 8K, in response to detecting tap gesture 850m, device 600 replaces display of camera mode affordance 620 in control area 606 with display of adjustable aspect ratio control 818, which is activated. includes affordances 818a-1818d that change the aspect ratio of the camera display area 604 when pressed (eg, by tapping), as described above.

図8Mでは、デバイス600は、タッチ感知面を使用して、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ850nを検出する。図8Nでは、タップジェスチャ850nを検出したことに応じて、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を収縮して、調整可能なアスペクト比コントロール818を表示をすることを停止する。 In FIG. 8M, device 600 uses the touch-sensitive surface to detect tap gesture 850n at a location corresponding to aspect ratio control affordance 626c. In FIG. 8N, in response to detecting tap gesture 850n, device 600 contracts display of aspect ratio control affordance 626c and ceases display of adjustable aspect ratio control 818. In FIG.

図8N~図8Pのそれぞれでは、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ850o、850p、及び850qを検出する。タップジェスチャ850oに応じて、図8Oに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850pに応じて、図8Pに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850qに応じて、図8Qに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。図8M~図8Qに通じて、コントロール領域606内のコントロールは変更されず、インジケータ領域602内のインジケータは変更されなかった。 In each of FIGS. 8N-8P, device 600 detects tap gestures 850o, 850p, and 850q at locations corresponding to zoom affordance 622 using its touch-sensitive surface. In response to tap gesture 850o, device 600 zooms live preview 630 (eg, by switching camera sensors from a first camera sensor to a second camera sensor having a different field of view), as shown in FIG. 8O. and update zoom affordance 622 to indicate the current zoom. In response to tap gesture 850p, device 600 updates the zoom of live preview 630 (eg, by switching from a second camera sensor to a third camera sensor with a different field of view), as shown in FIG. 8P, and and update zoom affordance 622 to indicate the current zoom. In response to tap gesture 850q, device 600 updates the zoom of live preview 630 (eg, by switching from the third camera sensor to the first camera sensor with a different field of view), as shown in FIG. 8Q, and and update zoom affordance 622 to indicate the current zoom. 8M-8Q, the controls in control area 606 were not changed and the indicators in indicator area 602 were not changed.

図8Qでは、カメラ設定アフォーダンス626を表示している間に、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置での下スワイプジェスチャ850rを検出する。下スワイプジェスチャ850rを検出したことに応じて、デバイス600は、カメラ設定アフォーダンス626の表示を、図8Rに示すように、カメラモードアフォーダンス620に置き換える。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの実施形態では、正方形のアスペクト比により、カメラ設定アフォーダンス626が表示されている間にインジケータをより容易に収容する高さをインジケータ領域602が有することを可能にするため、デバイス600は、図8K~図8Sのアスペクト比インジケータ602gの表示を維持する。 In FIG. 8Q, while displaying camera settings affordance 626, device 600 uses its touch-sensitive surface to detect swipe down gesture 850r at a location corresponding to live preview 630 within camera display area 604. . In response to detecting down swipe gesture 850r, device 600 replaces the display of camera settings affordance 626 with camera mode affordance 620, as shown in FIG. 8R. In some embodiments, device 600 also shifts down camera display area 604 (while maintaining the same size and aspect ratio) and visual border 608, thereby increasing the height of indicator area 602. , to decrease the height of control area 606 . In some embodiments, the square aspect ratio allows the indicator region 602 to have a height that more easily accommodates the indicator while the camera setting affordance 626 is displayed, so the device 600 Retain the display of aspect ratio indicator 602g of FIGS. 8K-8S.

図8Rでは、カメラディスプレイ領域604が正方形のアスペクト比を有する間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ850sを検出する。タップジェスチャ850sを検出したことに応じて、デバイス600は、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真、ビデオ)をキャプチャする。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図8Sに示すようにタップジェスチャ850sを検出したことに応じて、デバイス600は、追加のコントロールアフォーダンス614の表示を、メディアコレクション624に置き換え、コレクションの上に新たにキャプチャされたメディアの表現を含む。 In FIG. 8R, device 600 detects a tap gesture 850 s at a position corresponding to shutter affordance 610 using the touch-sensitive surface while camera display area 604 has a square aspect ratio. In response to detecting tap gesture 850 s , device 600 captures media (eg, photo, video) based on the current state of live preview 630 . The captured media is stored locally on the electronic device and/or sent to a remote server for storage. Further, in response to detecting a tap gesture 850s as shown in FIG. 8S, device 600 replaces the display of additional control affordances 614 with media collection 624 and presents the newly captured media over the collection. including.

図8Sでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する位置でのタップジェスチャ850tを検出する。図8Tに示すようにタップジェスチャ850tを検出したことに応じて、デバイス600は、ライブプレビュー630を表示することを停止し、代わりに、新たにキャプチャされたメディア(例えば、写真、ビデオのフレーム)の表現842を含む写真ビューワユーザインタフェースを表示する。デバイス600は、新たにキャプチャされたメディアの表現842と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを送信するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、を同時に表示する。 8S, device 600 detects tap gesture 850t at a location corresponding to media collection 624 using its touch-sensitive surface. In response to detecting tap gesture 850t as shown in FIG. 8T, device 600 stops displaying live preview 630 and instead displays newly captured media (e.g., photo, frame of video). displays a photo viewer user interface that includes a representation 842 of . The device 600 provides a representation 842 of the newly captured media, an editing affordance 644a for editing the newly captured media, a sending affordance 644b for sending the newly captured media, and a new capturing affordance 644b. A favorite affordance 644c for marking the captured media as favorite media and a trash affordance 644d for deleting the newly captured media are simultaneously displayed.

図8Tでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する位置でのタップジェスチャ850uを検出する。タップジェスチャ850uを検出したことに応じて、図8Uに示すように、デバイス600は、新たにキャプチャされたメディアを編集する編集ユーザインタフェースを表示する。編集ユーザインタフェースは、正方形のアスペクト比でメディアがキャプチャされたことを示すために、ハイライトされた正方形アスペクト編集アフォーダンス846aを備える、アスペクト編集アフォーダンス846a~846dを含む。 In FIG. 8T, device 600 uses its touch-sensitive surface to detect tap gesture 850u at a location corresponding to editing affordance 644a. In response to detecting tap gesture 850u, device 600 displays an editing user interface for editing the newly captured media, as shown in FIG. 8U. The editing user interface includes aspect editing affordances 846a-846d, with square aspect editing affordance 846a highlighted to indicate that the media was captured in a square aspect ratio.

図8Uでは、デバイス600は、タッチ感知面を使用して、4:3のアスペクト比編集アフォーダンス846bに対応する位置でタップジェスチャ850vを検出する。タップジェスチャ850vを検出したことに応じて、図8Vに示すように、正方形のアスペクト比で表示されるメディアの視覚コンテンツを維持し、4:3のアスペクト比を超えて視覚コンテンツを拡張する(シャッターアフォーダンス610上のタップジェスチャ850sに応じて、)キャプチャされた視覚コンテンツを追加しながら、デバイス600は、正方形のアスペクト比から4:3のアスペクト比へのメディアの表現の表示を更新する。加えて、4:3のアスペクト編集アフォーダンス846bは、メディアが拡張された4:3のアスペクト比で示されていることを示すためにハイライトされる。 In FIG. 8U, device 600 uses the touch-sensitive surface to detect tap gesture 850v at a location corresponding to 4:3 aspect ratio editing affordance 846b. In response to detecting the tap gesture 850v, maintain the visual content of the media displayed in a square aspect ratio and extend the visual content beyond the 4:3 aspect ratio (shutter In response to tap gesture 850s on affordance 610, device 600 updates the display of the media representation from a square aspect ratio to a 4:3 aspect ratio, while adding captured visual content. Additionally, the 4:3 aspect editing affordance 846b is highlighted to indicate that the media is shown in an extended 4:3 aspect ratio.

図9A~図9Cは、いくつかの実施形態による、電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。方法900は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 9A-9C are flow diagrams illustrating methods for displaying media controls using an electronic device, according to some embodiments. The method 900 includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on different sides of the electronic device (e.g., front camera, rear camera)). device (eg, 100, 300, 500, 600). Some acts of method 900 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法900は、メディアコントロールを表示するための直感的な仕方を提供する。この方法は、メディアコントロールを表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 900 provides an intuitive way to display media controls. This method reduces the user's cognitive burden in displaying media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to view media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(902)。カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラディスプレイ領域を含み、カメラディスプレイ領域は、1つ以上のカメラの視野の表現(例えば、630)を含む(904)。 An electronic device (eg, 600) displays 902 a camera user interface via a display device. The camera user interface includes a camera display area (e.g., displayed simultaneously within the camera user interface by the electronic device), the camera display area including representations (e.g., 630) of one or more camera views (904). .

カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラコントロール領域(例えば、606)を含み、カメラコントロール領域は、第1の位置(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の上の位置)に複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む(906)。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、第4のタイプ(例えば、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有するパノラマ写真(例えば、広い写真))のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現(例えば、630)の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイス(例えば、600)が静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。 The camera user interface includes a camera control area (e.g., 606) (e.g., which the electronic device concurrently displays within the camera user interface), the camera control area being positioned at a first position (e.g., image capture affordance (e.g., active 620 (e.g., selectable user interface objects) (e.g., selectable user interface objects) (e.g., a position above the shutter affordance) that captures an image of the content displayed within the camera display area). Affordances to select different camera modes (eg, slow motion, video, photo, portrait, square, panorama, etc.) (906). In some embodiments, each camera mode (e.g., video, photo/still, portrait, slow motion, panorama mode) can be configured as the camera (e.g., camera sensor) captures media. Multiple settings (e.g. portrait About camera mode: studio lighting setting, outline lighting setting, stage lighting setting). In this way, for example, the camera mode has no effect on how the camera behaves when capturing media, or multiple settings (e.g. multiple values (e.g. inactive, active, auto)). (flash mode with one setting with ). In some embodiments, camera modes allow the user to capture different types of media (e.g., photos or videos) and optimize the settings for each mode to achieve specific characteristics (e.g., shape ( (e.g., square, rectangle), speed (e.g., slow motion, time lapse), audio, video) to capture (e.g., via post-processing) specific types of media corresponding to specific modes. can. For example, if an electronic device (e.g., 600) is configured to operate in still photography mode, one or more cameras of the electronic device, when activated, will set certain settings (e.g., flash settings, 1 one or more cameras of the electronic device when the electronic device is configured to capture media of a first type (e.g., rectangular photographs) with one or more filter settings) and operate in square mode is activated to capture media of a second type (e.g. square photos) with specific settings (e.g. flash settings and one or more filters) and operate in slow motion mode. When the electronic device is configured, one or more cameras of the electronic device are of a third type ( When the electronic device is configured to capture media (e.g., slow motion video) and operate in portrait mode, one or more cameras of the electronic device may be configured with certain settings (e.g., a certain type of Capture media of type 5 (e.g. portrait photography (e.g. photography with blurred background)) with amount of light (e.g. stage light, studio light, contour light), f-number, blur) and when the electronic device is configured to operate in panorama mode, the one or more cameras of the electronic device may be of a fourth type (e.g., with specific settings (e.g., zoom, capture while moving). Capture media in panoramic photos (e.g., wide photos)) with a large amount of field of view). In some embodiments, when switching between modes, the display of the field of view representation (e.g., 630) changes to correspond to the type of media captured by the mode (e.g., electronic device (e.g., 600) While the is operating in still picture mode, this representation is rectangular mode; while the electronic device is operating in square mode, this representation is square).

いくつかの実施形態では、複数のカメラ設定アフォーダンス(例えば、618a~618d)は、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比(例えば、4×3、16×9)で表示されるメディアをキャプチャするように電子デバイス(例えば、600)を構成するアフォーダンス(例えば、618a~618d)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイスを構成するアフォーダンスを含むことにより、ユーザが、第1のアスペクト比を迅速かつ容易に設定及び/又は変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、必要な制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、アフォーダンス(例えば、618a~618d)の選択を受信し、それに応じて、電子デバイスは、第1のアスペクト比を第2のアスペクト比に変更するために動かすことができるコントロール(例えば、境界部ボックス608)を表示する。 In some embodiments, the plurality of camera setting affordances (eg, 618a-618d) are displayed with a first aspect ratio (eg, 4×3, Affordances (eg, 618a-618d) (eg, selectable user interface objects) that configure the electronic device (eg, 600) to capture media displayed in 16×9). By including an affordance that configures the electronic device to capture media displayed in a first aspect ratio in response to a first request to capture the media when displayed, the user can capture the first aspect ratio. Allows the ratio to be set and/or changed quickly and easily. By providing the necessary control options without cluttering the UI with additional displayed controls, the usability of the device is enhanced and the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, the electronic device (eg, 600) receives a selection of affordances (eg, 618a-618d), and in response the electronic device converts the first aspect ratio to the second aspect ratio. Displays controls (eg, bounding box 608) that can be moved to change.

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1のズームレベル(例えば、1×ズーム)で表示される(908)。いくつかの実施形態では、第1のズームレベルで表示される1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第1の要求(例えば、表示デバイス上のタップ)を受信する(910)。いくつかの実施形態では、表現(例えば、630)のズームレベルを変更する第1の要求を受信したことに応じて(912)、表現のズームレベルを変更する要求が表現のズームレベルを上げる要求に対応するとの判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第2の表現視野を第1のズームレベルよりも大きい第2のズームレベル(例えば、2×ズーム)で表示する(914)。いくつかの実施形態では、表現のズームレベルを変更する第1の要求を受信したことに応じて(912)、表現のズームレベルを変更する要求が表現(例えば、630)のズームレベルを下げる要求に対応するとの判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第3の表現視野を第1のズームレベルよりも小さい第3のズーム(例えば、0.5×ズーム)レベルで表示する(916)。いくつかの実施形態では、ズームレベルの倍率間の差は、不均一である(例えば、0.5×と1×との間(例えば、0.5×差)及び1×と2×との間(例えば、1×差))。 In some embodiments, a representation (eg, 630) of one or more cameras' fields of view is displayed (908) at a first zoom level (eg, 1× zoom). In some embodiments, while displaying a representation (eg, 630) of one or more camera views displayed at a first zoom level, the electronic device (eg, 600) zooms in on the representation. A first request to change level (eg, a tap on a display device) is received (910). In some embodiments, in response to receiving (912) a first request to change the zoom level of the representation (eg, 630), the request to change the zoom level of the representation is a request to increase the zoom level of the representation. , the electronic device (e.g., 600) displays a second rendered field of view of the one or more cameras at a second zoom level (e.g., 2x zoom) that is greater than the first zoom level. (914). In some embodiments, in response to receiving a first request to change the zoom level of the representation (912), the request to change the zoom level of the representation is a request to decrease the zoom level of the representation (eg, 630). , the electronic device (eg, 600) adjusts the third representation field of view of the one or more cameras to a third zoom level (eg, 0.5× zoom) that is less than the first zoom level. is displayed (916). In some embodiments, the difference between the zoom level magnifications is uneven (eg, between 0.5× and 1× (eg, 0.5× difference) and between 1× and 2×). between (eg, 1×difference)).

いくつかの実施形態では、第4のズームレベル(例えば、現在のズームレベル(例えば、0.5×、1×、又は2×ズーム))で1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第2の要求(例えば、表示デバイス上のタップ)を受信する(918)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第2のズームレベル(例えば、2×ズーム)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第4の表現を第3のズームレベル(例えば、0.5×ズーム)で表示する(922)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第3のズームレベル(例えば、0.5×ズーム)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第5の表現を第1のズームレベル(例えば、1×ズーム)で表示する(924)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応じて(920)、第4のズームレベルが第1のズームレベル(例えば、1×)である(かつ、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)との判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第6の表現を第2のズームレベル(例えば、2×)で表示する(926)。いくつかの実施形態では、カメラユーザインタフェースは、選択されると、1組の所定のズーム値を循環するアフォーダンス(例えば、622)を含む(例えば、0.5×から1×に、2×に循環し、0.5×に戻る、又は2×から1×に、0.5×に循環し、2×に戻る)。選択されると、1組の所定のズーム値を循環するアフォーダンスを提供することにより、選択可能な所定のズーム値の視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、ズームレベルが上限ズームレベル(例えば、2×)である場合、及びズームを上げる要求に応じて、電子デバイス(例えば、600)は、ズームレベルを0.5×に変更する。いくつかの実施形態では、ズームレベルが下限ズームレベル(例えば、0.5×)である場合、及びズームを下げる要求に応じて、電子デバイス(例えば、600)は、ズームレベルを2×に変更する。 In some embodiments, a representation of one or more cameras' fields of view (e.g., 630 ), the electronic device (eg, 600) receives a second request (eg, a tap on the display device) to change the zoom level of the representation (918). In some embodiments, in response to receiving 920 a second request to change the zoom level of the representation, the fourth zoom level is the second zoom level (e.g., 2x zoom) ( and, in some embodiments, upon determining that the second request to change the zoom level of the representation corresponds to a second request to increase the zoom level of the representation, the electronic device (eg, 600): A fourth representation of the field of view of the one or more cameras is displayed 922 at a third zoom level (eg, 0.5x zoom). In some embodiments, in response to receiving 920 a second request to change the zoom level of the representation, the fourth zoom level is changed to a third zoom level (eg, 0.5x zoom). (and in some embodiments, the second request to change the zoom level of the representation corresponds to the second request to increase the zoom level of the representation), the electronic device (eg, 600) displays (924) a fifth representation of the field of view of one or more cameras at a first zoom level (eg, 1× zoom). In some embodiments, in response to receiving 920 a second request to change the zoom level of the representation, the fourth zoom level is the first zoom level (eg, 1×) (and , in some embodiments, the second request to change the zoom level of the representation corresponds to a second request to increase the zoom level of the representation), the electronic device (eg, 600) A sixth representation of the field of view of the one or more cameras is displayed 926 at a second zoom level (eg, 2×). In some embodiments, the camera user interface includes an affordance (e.g., 622) that, when selected, cycles through a set of predetermined zoom values (e.g., 0.5x to 1x to 2x). cycle and back to 0.5x, or 2x to 1x, cycle to 0.5x and back to 2x). When selected, it provides the user with visual feedback of the selectable predetermined zoom values by providing an affordance that cycles through a set of predetermined zoom values. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. . In some embodiments, if the zoom level is at the upper zoom level (eg, 2x) and upon request to increase the zoom, the electronic device (eg, 600) changes the zoom level to 0.5x. do. In some embodiments, if the zoom level is at the lower zoom level (e.g., 0.5x) and in response to a request to decrease the zoom, the electronic device (e.g., 600) changes the zoom level to 2x. do.

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、カメラユーザインタフェース上で第1のジェスチャ(例えば、850g、850h、タッチジェスチャ(例えば、スワイプ))を検出する(928)。 While displaying the camera user interface, the electronic device (eg, 600) detects 928 a first gesture (eg, 850g, 850h, touch gesture (eg, swipe)) on the camera user interface. .

第1のジェスチャ(例えば、850g、850h)を検出したことに応じて、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、第1のジェスチャが第1のタイプ(例えば、カメラモードアフォーダンス上のスワイプジェスチャ)(例えば、第1の位置でのジェスチャ)のジェスチャであるとの判定に従って、第1の位置に1つ以上の追加のカメラモードアフォーダンス(例えば、620f、選択可能ユーザインタフェースオブジェクト)を表示する(932)(例えば、1つ以上の表示されたカメラモードアフォーダンスがもはや表示されず、かつ1つ以上の追加のカメラモードアフォーダンスが第1の位置に表示されるように、複数のカメラモードアフォーダンスをスクロールする)ことを含む。第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、1つ以上の追加のカメラモードアフォーダンスを表示することにより、ユーザが、他のカメラモードアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first gesture (eg, 850g, 850h), the electronic device (eg, 600) modifies 930 the appearance of the camera control area (eg, 606) and at a first position according to determining that the first gesture is a gesture of a first type (e.g., swipe gesture on camera mode affordance) (e.g., gesture at first position). display 932 additional camera mode affordances (eg, 620f, selectable user interface objects) of (eg, one or more displayed camera mode affordances are no longer displayed and one or more additional camera scrolling through the plurality of camera mode affordances such that the mode affordance is displayed at the first position). Displaying one or more additional camera mode affordances upon determining that the first gesture is a gesture of the first type allows the user to quickly and easily access other camera mode affordances. to enable. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life.

いくつかの実施形態では、第1のタイプのジェスチャは、複数のカメラモードアフォーダンス(例えば、620)(例えば、2つ以上のカメラモードアフォーダンス又は複数のカメラアフォーダンスに関連付けられた領域の一部分に対するスワイプ)のうちの少なくとも1つ上の接触の移動(例えば、850h、表示デバイス上のスワイプ)である。 In some embodiments, the first type of gesture is multiple camera mode affordances (eg, 620) (eg, a swipe over two or more camera mode affordances or a portion of a region associated with multiple camera affordances). (eg, 850h, swipe on display device) on at least one of.

いくつかの実施形態では、第1のジェスチャは、第1のタイプのものであり、第1のジェスチャを検出することは、第1のジェスチャの第1の部分(例えば、初期部分、接触、それに続く第1の量の移動)及び第1のジェスチャの第2の部分(後続の部分、接触の移動の継続)を検出することを含む。いくつかの実施形態では、第1のジェスチャの第1の部分を検出したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む(例えば、包囲する、範囲内にある)(例えば、1つ以上のカメラの視野の表現(例えば、カメラプレビュー)の周囲に表示された境界部(例えば、フレーム))別個の1つ以上の境界部要素を含む境界部(例えば、608)(例えば、単一の連続する境界部又は各角部で別個の要素からなる境界部)を表示する。第1のジェスチャの第1の部分を検出したことに応じて、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む別個の1つ以上の境界部要素を含む境界部を表示することにより、第1のジェスチャの第1の部分が検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のジェスチャの第2の部分を検出したことに応じて、電子デバイス(例えば、600)は、境界部(例えば、図8Fの608)を第1の方向に表示デバイスのディスプレイを横切って、境界部の少なくとも一部分がディスプレイから外れて平行移動され(表示デバイスの第1の縁部から平行移動され)、表示されることを停止されるまで、平行移動させる(例えば、動く、摺動する、遷移する)。第1のジェスチャの第2の部分を検出したことに応じて、境界部を第1の方向に表示デバイスのディスプレイを横切って、境界部の少なくとも一部分がディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることにより、第1のジェスチャが(例えば、完全に)検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first gesture is of a first type, and detecting the first gesture includes a first portion (eg, initial portion, touch, and a subsequent first amount of movement) and a second portion of the first gesture (a subsequent portion, the continuation of the movement of the contact). In some embodiments, in response to detecting the first portion of the first gesture, the electronic device (eg, 600) outputs at least one representation of the field of view of one or more cameras via the display device. a distinct one that surrounds (e.g., surrounds, is within) a portion (e.g., a boundary (e.g., frame) displayed around a representation of one or more cameras' fields of view (e.g., a camera preview) Display a border (eg, 608) that includes the above border elements (eg, a single continuous border or a border consisting of separate elements at each corner). by displaying a border comprising one or more separate border elements surrounding at least a portion of the representation of the field of view of the one or more cameras in response to detecting the first portion of the first gesture; Providing visual feedback to the user that the first portion of the first gesture has been detected. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. . In some embodiments, in response to detecting the second portion of the first gesture, the electronic device (eg, 600) displays the border (eg, 608 in FIG. 8F) in the first direction. Translate across the display of the device (e.g., , move, slide, transition). At least a portion of the border is translated off the display and displayed across the display of the display device in the first direction in response to detecting the second portion of the first gesture. Translating until stopped provides visual feedback to the user that the first gesture has been detected (eg, completely). By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. .

いくつかの実施形態では、第1のジェスチャの第2の部分を検出することは、第1の方向に動く第2の接触を検出することを含む。 In some embodiments, detecting the second portion of the first gesture includes detecting a second contact that moves in the first direction.

いくつかの実施形態では、第2の接触は、1つ以上のカメラの視野の表現上(例えば、表現の一部分上)で検出される。いくつかの実施形態では、境界部を平行移動が行われる速度は、第1の方向の第2の接触の移動速度に比例する(例えば、接触が動くと境界部も動く)。境界部を平行移動させるが行われる速度が第1の方向の第2の接触の移動速度に比例することにより、境界部の平行移動の速度が第2の接触の平行移動速度に対応するという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, a second contact is detected on the representation (eg, on a portion of the representation) of the field of view of one or more cameras. In some embodiments, the speed at which the boundary is translated is proportional to the speed of movement of the second contact in the first direction (eg, the boundary moves as the contact moves). The vision that the speed of translation of the boundary corresponds to the speed of translation of the second contact, such that the speed at which the boundary is translated is proportional to the speed of movement of the second contact in the first direction. provide meaningful feedback to users. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. .

いくつかの実施形態では、境界部を平行移動させることは、境界部によって囲まれた1つ以上のカメラの視野の表現(例えば、630)の少なくとも一部分の視覚外観(例えば、図8Gのように薄暗い)を変更することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、表示デバイス全体の輝度レベルを低下させる。 In some embodiments, translating the border may cause at least a portion of the representation (eg, 630) of the field of view of one or more cameras enclosed by the border to change the visual appearance (eg, as in FIG. 8G). Including changing dim). In some embodiments, the electronic device (eg, 600) reduces the brightness level of the entire display device.

第1のジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することは、第1のジェスチャが第1のタイプとは異なる第2のタイプのジェスチャ(例えば、カメラモードアフォーダンスのうちの1つ以外のカメラコントロール領域内のアフォーダンスの選択)(例えば、第1の位置以外の位置でのジェスチャ(例えば、カメラの視野の表現上での上スワイプ))であるとの判定に従って、複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを停止し、かつ第1の位置で複数のカメラ設定(例えば、626、カメラ動作を制御する)アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示すること(934)を含む。いくつかの実施形態では、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する(例えば、カメラモードアフォーダンスをカメラ設定アフォーダンスに置き換える)設定(例えば、画像キャプチャの動作を調整するコントロール)である。 In response to detecting the first gesture, the electronic device (eg, 600) modifies 930 the appearance of the camera control region (eg, 606), the modifying indicating that the first gesture is the first gesture. A second type of gesture that differs from the first type (e.g., selection of an affordance in the camera control region other than one of the camera mode affordances) (e.g., a gesture at a position other than the first position (e.g., an up swipe on the representation of the camera's field of view)), stop displaying a plurality of camera mode affordances (e.g., 620) (e.g., selectable user interface objects), and Affordances (e.g. selectable user interface objects) (e.g. camera settings for selected camera mode (e.g. flash, timer, filter effects, f-number , aspect ratio, live photo, etc.) (934). In some embodiments, a camera settings affordance is a setting (e.g., a control that adjusts the behavior of image capture) that adjusts image capture for the currently selected camera mode (e.g., replaces a camera mode affordance with a camera settings affordance). ).

いくつかの実施形態では、第2のタイプのジェスチャは、カメラディスプレイ領域内の接触の移動(例えば、表示デバイス上のスワイプ)である。 In some embodiments, the second type of gesture is moving a contact within the camera display area (eg, swiping on the display device).

いくつかの実施形態では、カメラコントロール領域(例えば、606)は、複数のカメラ設定アフォーダンスを表示するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を更に含み、第2のタイプのジェスチャは、複数のカメラ設定アフォーダンスを表示するアフォーダンスの選択(例えば、タップ)である。いくつかの実施形態では、1つ以上のカメラ設定を表示するアフォーダンスを表示している間に、かつ1つ以上のカメラモードアフォーダンス、1つ以上のカメラ設定アフォーダンス、1つ以上のカメラ設定アフォーダンスに対応する1つ以上のオプションを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラ設定を表示するアフォーダンスの選択を受信する。いくつかの実施形態では、要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンス(例えば、620)又は1つ以上のカメラ設定アフォーダンスを表示することを停止する。 In some embodiments, the camera control area (eg, 606) further includes affordances (eg, selectable user interface objects) that display multiple camera setting affordances, and the second type of gesture is a multiple camera setting affordance. Affordance selection (eg, tap) to display the setting affordance. In some embodiments, while displaying affordances that display one or more camera settings, and to one or more camera mode affordances, one or more camera settings affordances, one or more camera settings affordances. While displaying the corresponding one or more options, the electronic device (eg, 600) receives affordance selections for displaying one or more camera settings. In some embodiments, in response to receiving the request, the electronic device (eg, 600) chooses to display one or more camera mode affordances (eg, 620) or one or more camera setting affordances. Stop.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーション(例えば、フラッシュ状態インジケータ)を含むアフォーダンス(例えば、602a)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを更に含む。キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することにより、ユーザが、キャプチャ設定の状態を迅速かつ容易に認識することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第2のタイプのジェスチャは、インジケーションの選択に対応する。 In some embodiments, displaying the camera user interface displays affordances (eg, 602a) (eg, selectable user interface objects) that include graphical indications of the state of capture settings (eg, flash status indicators). further comprising: Displaying affordances that include graphical indications of the state of the capture settings allows the user to quickly and easily recognize the state of the capture settings. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. . In some embodiments, the second type of gesture corresponds to selecting an indication.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、カメラユーザインタフェース上の第2のジェスチャ(例えば、624、以前にキャプチャされた)(例えば、スワイプ(例えば、ディスプレイスクリーンの縁部からのスワイプ))を検出する。いくつかの実施形態では、第2のジェスチャを検出したことに応じて、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現(例えば、624)(例えば、互いの上に積み重ねられて表示されるメディアの1つ以上の表現)を表示する。第2のジェスチャを検出したことに応じて、以前にキャプチャされたメディアの第1の表現を表示することにより、ユーザが、以前にキャプチャされたメディアの第1の表現を迅速かつ容易に閲覧することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の表現は、カメラコントロール領域(例えば、606)内に表示される。 In some embodiments, the electronic device (eg, 600) makes a second gesture (eg, 624, previously ) (eg, a swipe (eg, a swipe from the edge of the display screen)). In some embodiments, in response to detecting the second gesture, the electronic device (eg, 600) outputs first representations (eg, 624) of previously captured media (eg, on top of each other). display one or more representations of media displayed stacked on top of each other). Displaying the first representation of the previously captured media in response to detecting the second gesture allows the user to quickly and easily view the first representation of the previously captured media. make it possible. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, the first representation is displayed within the camera control area (eg, 606).

いくつかの実施形態では、第1の位置に複数のカメラ設定アフォーダンスを表示することは、第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモード(例えば、ポートレートモード)でキャプチャするように電子デバイス(例えば、600)が構成されているとの判定に従って、第1の位置に第1の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)を表示することを含む。第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモードでキャプチャするように電子デバイスが構成されているとの判定に従って、第1の位置に第1の1組のカメラ設定アフォーダンスを表示することにより、ユーザに、第1の1組のカメラ設定アフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の位置に複数のカメラ設定アフォーダンス(例えば、626)を表示することは、第2のタイプのジェスチャが検出されていた間に、メディアを第1のカメラモードとは異なる第2のカメラモード(例えば、ビデオモード)でキャプチャするように電子デバイス(例えば、600)が構成されているとの判定に従って、第1の位置に第1の複数のカメラ設定とは異なる第2の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、ビデオ効果アフォーダンス)を表示することを含む。 In some embodiments, displaying multiple camera setting affordances at the first position causes media to be placed in a first camera mode (e.g., portrait mode) while the second type of gesture was detected. ), a first set of camera setting affordances (e.g., selectable user interface objects) (e.g., lighting including displaying effect affordances). A first set of cameras at a first location in accordance with determining that the electronic device is configured to capture media in a first camera mode while the second type of gesture was detected. Displaying the setting affordances provides the user with quick and convenient access to the first set of camera setting affordances. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, displaying multiple camera setting affordances (e.g., 626) at the first location causes the media to be placed in the first camera mode while the second type of gesture was detected. is different from the first plurality of camera settings at the first location according to a determination that the electronic device (eg, 600) is configured to capture in a different second camera mode (eg, video mode) Displaying a second set of camera setting affordances (eg, selectable user interface objects) (eg, video effect affordances).

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a)を含み、第2の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a、ポートレートモード及びビデオモードの両方に含まれるフラッシュアフォーダンス)を含む。 In some embodiments, the first set of camera setting affordances includes the first camera setting affordances (eg, 626a) and the second set of camera setting affordances includes the first camera setting affordances (eg, 626a). 626a, flash affordances included in both portrait and video modes).

いくつかの実施形態では、第1のカメラモードは、静止写真キャプチャモードであり、第1の1組のカメラ設定アフォーダンスは、フラッシュ設定に対応するインジケーション(例えば、視覚インジケーション)を含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、ライブ設定(例えば、オンのとき、動画(例えば、ファイル拡張子がGIFの画像)を作成する設定)に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、電子デバイスは、ライブ設定に対応するインジケーションを含むアフォーダンスの選択を受信する。いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、ライブ設定)、アスペクト比設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)をオン/オフする。いくつかの実施形態では、電子デバイスは、アスペクト比設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、アスペクト比設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、表示デバイス上に表示された表現(例えば、画像、ビデオ)のアスペクト比)、タイマー設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を調整する。いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、タイマー設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間)、フィルタ設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を調整する。いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信し、いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、フィルタ設定をオン/オフし、かつ/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a still photo capture mode and the first set of camera setting affordances includes an indication (e.g., visual indication) corresponding to the flash setting (e.g., a visual indication). a selectable user interface object) and an affordance (e.g. a selectable user interface objects) and one or more affordances selected from the group consisting of: In some embodiments, the electronic device receives a selection of affordances including indications corresponding to live settings. In some embodiments, in response to receiving a selection of indications, the electronic device turns on/off affordances (e.g., selectable user interface objects) including indications corresponding to aspect ratio settings (live settings). turn off. In some embodiments, the electronic device receives a selection of affordances including an indication corresponding to an aspect ratio setting, and in some embodiments, in response to receiving the selection of indications, the electronic device , aspect ratio settings on/off, and/or display adjustable controls to indicate the aspect ratio of the representation (e.g., image, video) displayed on the display device), indications corresponding to timer settings Adjust including affordances (eg, selectable user interface objects). In some embodiments, the electronic device receives a selection of affordances including an indication corresponding to a timer setting, and in some embodiments, in response to receiving the selection of indications, the electronic device: Turn timer settings on/off and/or display adjustable controls to indicate the amount of time after capture is initiated and before an image is captured), affordances including indications corresponding to filter settings (e.g. selectable user interface objects). In some embodiments, the electronic device receives a selection of affordances including an indication corresponding to a filter setting, and in some embodiments, in response to receiving the selection of indications, the electronic device: Turn filter settings on/off and/or display adjustable controls to adjust the filters used by the electronic device when capturing images. In some embodiments, selection of an affordance causes the electronic device (eg, 600) to set settings corresponding to the affordance, or a user interface (eg, options (eg, slider, affordance )) is displayed.

いくつかの実施形態では、第1のカメラモードは、ポートレートモードであり、第1の1組のカメラ設定アフォーダンス(例えば、626)は、深度コントロール設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、深度コントロール設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、深度コントロール設定をオン/オフする、及び/又は調整可能なコントロールを表示して、被写界深度を調整して、デバイスの背景をぼかす)と、フラッシュ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フラッシュ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、選択可能ユーザインタフェース要素を表示して、電子デバイスのフラッシュ設定を構成する(例えば、フラッシュ設定を自動、オン、オフに設定する))と、タイマー設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、照明設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、照明設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応じて、電子デバイスは、照明設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用する特定の光設定(例えば、スタジオ光設定、舞台照明設定)を調整する(例えば、光量を増加/減少させる))と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is portrait mode and the first set of camera setting affordances (eg, 626) includes affordances (eg, 626) that include indications corresponding to depth control settings (eg, Selectable User Interface Object) (In some embodiments, the electronic device receives a selection of affordances including indications corresponding to depth control settings; in some embodiments, having received a selection of indications Depending on the electronic device, the depth control setting can be turned on/off and/or displayed with adjustable controls to adjust the depth of field and blur the background of the device) and flash settings. an affordance (e.g., a selectable user interface object) that includes a visual indication to (in some embodiments, the electronic device receives a selection of affordances that includes an indication corresponding to a flash setting; , in response to receiving the indication selection, the electronic device displays a selectable user interface element to configure flash settings of the electronic device (e.g., set flash settings to auto, on, off). ) and affordances (e.g., selectable user interface objects) including visual indications corresponding to timer settings (in some embodiments, the electronic device receives a selection of affordances including indications corresponding to timer settings in some embodiments, in response to receiving the indication selection, the electronic device turns on/off the timer setting and/or displays an adjustable control after the capture is initiated. , adjusting the time before the image is captured) and affordances (e.g., selectable user interface objects) that include visual indications corresponding to the filter settings (in some embodiments, the electronic device includes Receiving a selection of affordances including corresponding indications; in some embodiments, the electronic device turns filter settings on/off and/or is adjustable controls to adjust the filters used by the electronic device when capturing images) and corresponding lighting settings. Affordances (e.g., selectable user interface objects) that include indications that correspond to lighting settings (in some embodiments, the electronic device receives a selection of affordances that include indications corresponding to lighting settings; In response to receiving the indication selection, the electronic device may turn lighting settings on or off and/or display adjustable controls to indicate the particular light that the electronic device will use when capturing an image. adjusting (eg, increasing/decreasing the amount of light) a setting (eg, studio light setting, stage lighting setting), and one or more affordances selected from the group consisting of: In some embodiments, selection of an affordance causes the electronic device (eg, 600) to set settings corresponding to the affordance, or a user interface (eg, options (eg, slider, affordance )) is displayed.

いくつかの実施形態では、以前にキャプチャされたメディアの表現(例えば、任意の表現)を表示していない間に、電子デバイス(例えば、600)は、1つ以上のカメラを使用して第1のメディアのキャプチャ(例えば、写真又はビデオのキャプチャ)を検出する(936)。いくつかの実施形態では、キャプチャは、カメラアクティブ化アフォーダンス又はメディアキャプチャリングアフォーダンス(例えば、シャッターボタン)上のタップに応じて行われる。いくつかの実施形態では、第1のメディアのキャプチャを検出したことに応じて、電子デバイス(例えば、600)は、第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現(例えば、6)を表示する(938)。いくつかの実施形態では、1つ以上のカメラの視野の表現に対応するメディアの表現は、以前にキャプチャされたメディアの複数の表現の上に表示される。以前にキャプチャされたメディアの複数の表現の上に1つ以上のカメラの視野の表現に対応するメディアの表現を表示することにより、ユーザが、1つ以上のカメラの視野の表現に対応するメディアの表現を閲覧している間に、以前にキャプチャされたメディアを少なくとも部分的に閲覧及び/又は認識することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアの複数の表現は、互いの上に積み重ねられた複数の表現として表示される。 In some embodiments, while not displaying a previously captured representation of media (eg, any representation), the electronic device (eg, 600) first captures images using one or more cameras. media capture (eg, photo or video capture) (936). In some embodiments, the capture is in response to a tap on a camera activation affordance or media capturing affordance (eg, shutter button). In some embodiments, in response to detecting capture of the first media, the electronic device (eg, 600) renders one or more representations of the captured media, including representations of the first media ( For example, 6) is displayed (938). In some embodiments, representations of media corresponding to representations of one or more camera views are displayed over multiple representations of previously captured media. Displaying representations of media corresponding to representations of one or more camera views on top of previously captured representations of media allows a user to view media corresponding to representations of one or more camera views. enables at least partial viewing and/or recognition of previously captured media while viewing a representation of the . By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. . In some embodiments, multiple representations of previously captured media are displayed as multiple representations stacked on top of each other.

いくつかの実施形態では、表示されると、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、メディアをキャプチャする第3の要求を受信する(940)。いくつかの実施形態では、メディアをキャプチャする第3の要求を受信したことに応じて、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を表示する(942)。いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を、第2のアスペクト比を有するキャプチャされたメディアの表現に変更する要求を受信する(944)。いくつかの実施形態では、要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のアスペクト比を有するキャプチャされたメディアの表現を表示する(946)。いくつかの実施形態では、スペクト比を調整することは、非破壊的である(例えば、写真を変更した後に、キャプチャされたメディアのアスペクト比を変更することができる(増加させる又は減少させる))。 In some embodiments, when displayed, the electronic device captures media while the electronic device (e.g., 600) is configured to capture media displayed in the first aspect ratio. A third request is received (940). In some embodiments, in response to receiving the third request to capture media, the electronic device (eg, 600) displays 942 a representation of the captured media having the first aspect ratio. ). In some embodiments, an electronic device (eg, 600) receives a request to change a representation of captured media having a first aspect ratio to a representation of captured media having a second aspect ratio. (944). In some embodiments, in response to receiving the request, the electronic device (eg, 600) displays a representation of the captured media having the second aspect ratio (946). In some embodiments, adjusting the aspect ratio is non-destructive (e.g., the aspect ratio of the captured media can be changed (increased or decreased) after the photograph has been altered). .

いくつかの実施形態では、第2のアスペクト比を有するキャプチャされたメディアの表現は、第1のアスペクト比を有するキャプチャされたメディアの表現内に存在しない視覚コンテンツ(例えば、画像コンテンツ、第1のアスペクト比での表現に含まれなかった、キャプチャの時点で1つ以上のカメラの視野内の追加の画像コンテンツ)を含む。 In some embodiments, the captured media representation having the second aspect ratio includes visual content not present in the captured media representation having the first aspect ratio (e.g., image content, additional image content within the field of view of one or more cameras at the time of capture that was not included in the aspect ratio representation).

いくつかの実施形態では、第3のカメラモード(例えば、ポートレートモード)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイス(例えば、600)は、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、メディアをキャプチャする第2の要求を受信したことに応じて、電子デバイス(例えば、600)は、第3のカメラモードに対応する設定及び複数のカメラ設定アフォーダンス(例えば、626)のアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)に対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャする。第3のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、要求を受信したことに応じて、第3のカメラモードに対応する設定及びアフォーダンスに対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャすることにより、ユーザに、キャプチャされたメディアに適用されたカメラモードのより容易な制御を提供する。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, while the electronic device (eg, 600) is configured to capture media in a third camera mode (eg, portrait mode), the electronic device (eg, 600) Detect a second request to capture media. In some embodiments, in response to receiving a second request to capture media, the electronic device (eg, 600) configures settings corresponding to a third camera mode and multiple camera setting affordances (eg, 626), capturing media using one or more cameras based on at least one setting corresponding to the affordances (eg, selectable user interface objects) (eg, lighting effect affordances). to at least one setting corresponding to the third camera mode and affordances in response to receiving the request while the electronic device is configured to capture media in the third camera mode; Based on this, capturing media using one or more cameras provides the user with easier control of the camera modes applied to the captured media. By performing actions when a set of conditions are met without the need for further user input, device operability is enhanced and the user-device interface (e.g., manipulating/interacting with the device by helping users make appropriate inputs and reducing user errors), as well as by enabling users to use devices more quickly and efficiently. Reduces device power usage and improves battery life.

方法900に関して上述された処理(例えば、図9A~図9C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processes described above with respect to method 900 (eg, FIGS. 9A-9C) are also applicable in an analogous manner to the methods described above and below. For example, methods 700, 1100, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 900. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図10A~図10Kは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図11A~図11Cにおける処理を含む、以下で説明する処理を例示するために使用される。 10A-10K illustrate exemplary user interfaces for displaying camera views using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11C.

図10Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図10Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境とともに水ビュー1040を含む。水ビュー1040は、ユーザがデバイス600をどのように配向しているかの理由から、デバイス600からの角度だけオフセットして表示される水平線1040aを含む。理解を向上させるために、図10A~図10Kのいくつかは、対応する図の水平線に対するデバイス600の向きに関する詳細を提供するグラフ的な説明図1060を含む。図10Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 10A shows an electronic device 600 displaying a live preview 630 optionally extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 . In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 . The camera user interface of FIG. 10A includes indicator region 602 and control region 606, which are overlaid on live preview 630 so that the indicators and controls can be displayed simultaneously with the live preview. Camera display area 604 does not substantially overlap with indicators or controls. In this example, live preview 630 includes water view 1040 along with the surrounding environment. Water view 1040 includes a horizontal line 1040a that appears offset by an angle from device 600 because of how the user is oriented device 600 . To improve understanding, some of Figures 10A-10K include graphical illustrations 1060 that provide details regarding the orientation of device 600 relative to the horizontal line of the corresponding figures. The camera user interface of FIG. 10A includes a visual border 608 that indicates the border between indicator area 602 and camera display area 604 and the border between camera display area 604 and control area 606 .

図10Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、アニメーション化された画像状態インジケータ602dを含み、これは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。 As shown in FIG. 10A, indicator area 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator region 602 includes an animated image state indicator 602d that indicates whether to capture a single image or multiple images (eg, in response to detecting activation of shutter affordance 610). Indicates whether the camera is configured.

図10Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図10Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 As shown in FIG. 10A, camera display area 604 includes live preview 630 and zoom affordance 622 . As shown in FIG. 10A, control area 606 overlays live preview 630 and optionally includes a colored (eg, gray, translucent) overlay.

図10Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図10Aにおいて、カメラモード620a~620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイスに、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。 As shown in FIG. 10A, control area 606 includes camera mode affordance 620, additional control affordance 614, shutter affordance 610, and camera switcher affordance 612. As shown in FIG. Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes. In FIG. 10A, camera modes 620a-620e are displayed, with "Photo" camera mode 620c indicated in bold text as the current mode in which the camera is operating. Additional control affordances 614 allow the user to access additional camera controls. Shutter affordance 610 , when activated, causes device 600 to capture media (eg, photos) based on the current state of live preview 630 . The captured media is stored locally on the electronic device and/or sent to a remote server for storage. Camera switcher affordance 612, when activated, causes the device to switch to show different camera views in live preview 630, such as by switching between a rear camera sensor and a front camera sensor.

図10Aでは、デバイス600は、タッチ感知面を使用して、ビデオカメラモードアフォーダンス620bに対応する位置でのタップジェスチャ1050aを検出する。タップジェスチャ1050aを検出したことに応じて、デバイス600は、図10Bのユーザインタフェースを表示する。あるいは、図10Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置での右スワイプジェスチャ1050bを検出する。右スワイプジェスチャ1050bを検出したことに応じて、デバイス600は、図10Bのユーザインタフェースを同様に表示する。図10Aと図10Bとの間の遷移は、図8E~図8Hに関して上で更に詳細に説明される。 In FIG. 10A, device 600 uses its touch-sensitive surface to detect tap gesture 1050a at a location corresponding to video camera mode affordance 620b. In response to detecting tap gesture 1050a, device 600 displays the user interface of FIG. 10B. Alternatively, in FIG. 10A, device 600 detects a right swipe gesture 1050b at a location corresponding to live preview 630 within camera display area 604 using a touch-sensitive surface. In response to detecting right swipe gesture 1050b, device 600 similarly displays the user interface of FIG. 10B. The transition between Figures 10A and 10B is described in more detail above with respect to Figures 8E-8H.

図10Bに示すように、タップジェスチャ1050a又は右スワイプジェスチャ1050bを検出したことに応じて、デバイス600は、写真カメラモードからビデオカメラモードに遷移した。デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、(任意選択的に)更新されたライブプレビュー630、及び更新されたカメラモードアフォーダンス620を表示する。 As shown in FIG. 10B, in response to detecting tap gesture 1050a or right swipe gesture 1050b, device 600 transitioned from photo camera mode to video camera mode. Device 600 displays a corrected set of indicators in indicator area 602 , (optionally) updated live preview 630 , and updated camera mode affordance 620 .

インジケータ領域602内の訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、ライブアニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、新たに表示されたビデオ品質インジケータ602h(例えば、新たに選択されたモード(ビデオ(記録)モード)は、ビデオ品質インジケータ602hに対応する機能と互換性があるため)及び新たに表示された記録時間インジケータ602iを含む。ビデオ品質インジケータ602hは、ビデオが記録されるビデオ品質(例えば、解像度)のインジケーションを提供する(例えば、シャッターアフォーダンス610がアクティブ化されたとき)。図10Bにおいて、ビデオ品質インジケータ602hは、デバイスが4Kビデオ品質記録モードにあり、その結果、記録がアクティブ化されている場合、ビデオが4Kビデオ品質で記録されることを示す。いくつかの実施形態では、記録時間インジケータ602iは、現在の進行中のバイド(vide)の時間量(例えば、秒、分、及び/又は時間)を示す(indicators)。図10Bにおいて、記録時間インジケータ602iは、現在ビデオが記録されていないため、00:00:00を示す。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。 The corrected set of indicators in the indicator area 602 are displayed without displaying the previously displayed animated image state indicator 602d (e.g., the newly selected mode is the live animated image state indicator 602d). is incompatible with the functionality corresponding to indicator 602d), the newly displayed video quality indicator 602h (e.g., the newly selected mode (video (recording) mode) is compatible with the functionality corresponding to video quality indicator 602h). possible) and a newly displayed recording time indicator 602i. Video quality indicator 602h provides an indication of the video quality (eg, resolution) at which the video will be recorded (eg, when shutter affordance 610 is activated). In FIG. 10B, video quality indicator 602h indicates that the device is in 4K video quality recording mode so that if recording is activated, video will be recorded in 4K video quality. In some embodiments, recording time indicators 602i indicate the amount of time (eg, seconds, minutes, and/or hours) of the current ongoing vide. In FIG. 10B, recording time indicator 602i shows 00:00:00 because no video is currently being recorded. In some embodiments, changing the camera mode (photo mode vs. video mode) changes the zoom of the object in live preview 630 . In some embodiments, the zoom of objects in live preview 630 does not change regardless of changing camera mode (photo mode vs. video mode). Note that orientation 1060 of device 600 continues to be offset from the horizontal line, so that horizontal line 1040 a continues to appear offset by an angle from device 600 .

図10Bでは、デバイスが4Kビデオ品質記録モードにある間に(ビデオ品質インジケータ602hによって示すように)、ライブプレビュー630は、カメラディスプレイ領域604内に表示され続けながら、インジケータ領域602及びコントロール領域606内にもはや表示されないように更新される。いくつかの実施形態では、インジケータ領域602及びコントロール領域606の背景もまた、黒になるように更新される。その結果、ユーザは、インジケータ領域602及びコントロール領域606内のライブプレビュー630をもはや見ることができない。 In FIG. 10B, while the device is in the 4K video quality recording mode (as indicated by video quality indicator 602h), live preview 630 continues to be displayed in camera display area 604 while the is updated so that it no longer appears in In some embodiments, the background of indicator area 602 and control area 606 are also updated to be black. As a result, the user can no longer see live preview 630 in indicator area 602 and control area 606 .

図10Bでは、デバイス600は、タッチ感知面を使用して、ビデオ品質インジケータ602hに対応する位置(インジケータ領域602内)でのタップジェスチャ1050cを検出する。 In FIG. 10B, device 600 uses its touch-sensitive surface to detect tap gesture 1050c at a location (within indicator region 602) corresponding to video quality indicator 602h.

図10Cに示すように、タップジェスチャ1050cを検出したことに応じて、デバイス600は、調整可能なビデオ品質コントロール1018を表示し、これは、720pビデオ品質アフォーダンス1018a、HDビデオ品質アフォーダンス1018b、及び4Kビデオ品質アフォーダンス1018cを含む(4Kビデオ品質記録モードが現在アクティブであることを示すために太字化された)。図10Cでは、デバイス600は、タッチ感知面を使用して、HDビデオ品質アフォーダンス1018bに対応する位置でのタップジェスチャ1050dを検出する。 As shown in FIG. 10C, in response to detecting tap gesture 1050c, device 600 displays adjustable video quality controls 1018, including 720p video quality affordance 1018a, HD video quality affordance 1018b, and 4K video quality affordance 1018b. Includes Video Quality Affordance 1018c (bold to indicate that the 4K video quality recording mode is currently active). In FIG. 10C, device 600 uses its touch-sensitive surface to detect tap gesture 1050d at a location corresponding to HD video quality affordance 1018b.

図10Dに示すように、タップジェスチャ1050dを検出したことに応じて、デバイス600は、(アクティブにビデオを記録していない間に)デバイスを4Kビデオ品質記録モードからHDビデオ品質記録モードに遷移させる。デバイス600は、デバイスがHDビデオ品質記録モードにあることを示すためにビデオ品質インジケータ602hを更新する(例えば、「HD」と表示するため)。その結果、HDビデオ品質記録モードに遷移すると、デバイス600は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内にライブプレビュー630を表示する(図10Aと同様)。これは、視覚コンテンツ(カメラディスプレイ領域604内に表示される視覚コンテンツを超えた、任意選択的にまた、インジケータ領域602及びコントロール領域606内に表示される視覚コンテンツを超えた)が、ビデオ記録の一部として記憶されることをユーザに示す。 As shown in FIG. 10D, in response to detecting tap gesture 1050d, device 600 transitions the device from 4K video quality recording mode to HD video quality recording mode (while not actively recording video). . Device 600 updates video quality indicator 602h to indicate that the device is in HD video quality recording mode (eg, to display "HD"). As a result, upon transitioning to HD video quality recording mode, device 600 displays live preview 630 in indicator area 602, camera display area 604, and control area 606 (similar to FIG. 10A). This is because the visual content (beyond the visual content displayed in the camera display area 604, optionally also beyond the visual content displayed in the indicator area 602 and the control area 606) is Indicates to the user that it will be stored as part.

図10Dでは、デバイス600がHDビデオ品質記録モードにあり、デバイス600の向き1060が、水平線からオフセットされ続け、その結果、水平線1040aが、デバイス600からの角度だけオフセットして表示され続けている間、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ1050eを検出する。 In FIG. 10D, while device 600 is in HD video quality recording mode and orientation 1060 of device 600 continues to be offset from the horizontal line, such that horizontal line 1040a continues to be displayed offset by an angle from device 600. , device 600 detects tap gesture 1050e at a location corresponding to shutter affordance 610 using its touch-sensitive surface.

図10Eに示すように、タップジェスチャ1050eを検出したことに応じて、デバイス600は、HDビデオ品質記録モードでビデオの記録を開始する。図10Eにおいて(図10A~図10Dのように)、ライブプレビュー630のコンテンツは、カメラ(単数又は複数)の視野内のシーンが変化するにつれて更新し続ける。シャッターアフォーダンス610のビジュアル要素は、デバイスがビデオを記録しており、シャッターアフォーダンス610を再アクティブ化することにより、記録が終了することを示すために更新された。記録時間インジケータ602iは、図10Eにおいて進行しており、5秒のビデオがそれまで記録されていることを示した。ビデオ品質インジケータ602hはもはや表示されず、それによって、ユーザにライブプレビュー630のより完全なビューを提供し、任意選択的に、それはビデオ品質記録モードがビデオを録画している間に変更することができないためである。記録中、デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。いくつかの実施形態では、デバイス600の向き1060は、水平線1040aがデバイス600からのオフセット度を変化させて記録されるように、ビデオ記録中に変化する。 As shown in FIG. 10E, in response to detecting tap gesture 1050e, device 600 begins recording video in HD video quality recording mode. In Figure 10E (as in Figures 10A-10D), the content of the live preview 630 continues to update as the scene within the field of view of the camera(s) changes. The visual elements of shutter affordance 610 have been updated to indicate that the device is recording video and that recording has ended by reactivating shutter affordance 610 . Recording time indicator 602i was progressing in FIG. 10E, indicating that 5 seconds of video had been recorded so far. The video quality indicator 602h is no longer displayed, thereby providing the user with a more complete view of the live preview 630, which optionally the video quality recording mode can be changed while recording video. Because you can't. Note that during recording, the orientation 1060 of the device 600 continues to be offset from the horizontal line, so that the horizontal line 1040a continues to appear offset by an angle from the device 600. FIG. In some embodiments, orientation 1060 of device 600 changes during video recording such that horizontal line 1040a is recorded at varying degrees of offset from device 600 .

図10Eでは、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する位置でのタップジェスチャ1050gを検出する。タップジェスチャ1050gに応じて、デバイス600は記録を停止する。記録は、後で検索、編集、及び再生するためにデバイス600のメモリに記憶される。記憶された記録は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含む。更に、記憶された記録はまた、ライブプレビュー630の一部として表示されなかったデバイス600のカメラ(単数又は複数)によってビデオ記録中にキャプチャされた視覚コンテンツも含む。 In FIG. 10E, device 600 detects tap gesture 1050g at a location corresponding to shutter affordance 610 using its touch-sensitive surface. In response to tap gesture 1050g, device 600 stops recording. Recordings are stored in the memory of device 600 for later retrieval, editing, and playback. The stored recording includes the visual content of live preview 630 displayed in indicator area 602 , camera display area 604 , and control area 606 . Additionally, the stored recording also includes visual content captured during the video recording by the camera(s) of device 600 that was not displayed as part of live preview 630 .

ビデオ記録を記録及び記憶することに続いて、デバイス600は、1つ以上のユーザ入力を受信して、ビデオ記録にアクセスする。図10Fに示すように、デバイス600は、再生、編集、削除、及び他のユーザへの送信に利用可能なビデオ記録1032のフレームを表示する。ビデオ記録1032の表示されたフレームは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600は、ビデオ記録1032の表示されたフレーム上に再生アフォーダンス1038を重ねる。再生アフォーダンス1038のアクティブ化(例えば、タップオン)により、再生アフォーダンス1038に、表示を停止させ、ビデオ記録1032を再生させ、これは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかった記録された視覚コンテンツも含まない)。図10Fのユーザインタフェースはまた、(ビデオ記録を編集するためのプロセスを開始するための)編集アフォーダンス644a及び(ビデオ記録を自動的に編集するための)自動調整アフォーダンス1036bを含む。 Following recording and storing the video recording, device 600 receives one or more user inputs to access the video recording. As shown in FIG. 10F, device 600 displays frames of video recording 1032 that are available for playback, editing, deletion, and transmission to other users. The displayed frame of the video recording 1032 includes the visual content of the live preview 630 displayed in the camera display area 604 during the recording, but not the visual content of the live preview 630 displayed in the indicator area 602 and the control area 606. does not include Device 600 overlays playback affordance 1038 over the displayed frame of video recording 1032 . Activating (e.g., tapping on) playback affordance 1038 causes playback affordance 1038 to stop displaying and play video recording 1032, which is a visual representation of live preview 630 displayed in camera display area 604 during recording. Includes visual playback of content, but does not include live preview 630 visual content displayed in indicator region 602 and control region 606 (nor recorded visual content that was not displayed in live preview 630 during recording). Not included). The user interface of FIG. 10F also includes edit affordance 644a (to initiate the process for editing the video recording) and auto-adjust affordance 1036b (to automatically edit the video recording).

図10Fでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する位置でのタップジェスチャ1050gを検出する。図10Gに示すように、タップジェスチャ1050gを検出したことに応じて、デバイス600は、ビデオ編集オプション1060を表示し、ビデオ編集オプション1060には、(ビデオ記録をクロッピング及び同時に回転させるための)アフォーダンス1060a、(記録の水平線を調整するための)水平線調整アフォーダンス1060b、(ビデオ記録をクロッピングするための)アフォーダンス1060c、及び(ビデオ記録を回転させるための)アフォーダンス1060dが含まれる。いくつかの実施形態では、記録をクロッピングすることは、例えば、図10Fの再生アフォーダンス1038をアクティブ化することによって表示されるライブプレビュー630の一部分を更に除外することにより、再生のための視覚コンテンツを(図10Fと比較して)低減するだけである。 In FIG. 10F, device 600 uses its touch-sensitive surface to detect tap gesture 1050g at a location corresponding to editing affordance 644a. As shown in FIG. 10G, in response to detecting tap gesture 1050g, device 600 displays video editing options 1060, which include affordances (for cropping and simultaneously rotating the video recording). 1060a, horizon adjustment affordance 1060b (to adjust the horizon of the recording), affordance 1060c (to crop the video recording), and affordance 1060d (to rotate the video recording). In some embodiments, cropping the recording reduces the visual content for playback, for example by further excluding a portion of the live preview 630 displayed by activating playback affordance 1038 in FIG. 10F. only reduced (compared to FIG. 10F).

理解を向上させるために、図10Gはまた、ビデオ記録の一部として記録及び記憶されるが、記録中にカメラディスプレイ領域604の一部として表示されなかった視覚コンテンツの表現を含む。デバイス600の外側に示されるこれらの表現は、デバイス600のユーザインタフェースの一部ではないが、理解の向上のために提供される。例えば、図10Gは、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、ビデオ記録の一部として記録され、記録中にライブプレビュー630内に表示されなかったいくつかの視覚コンテンツはまた、ビデオ記録1032の一部として記憶され、これらの全ては、デバイス600で、ビデオ記録1032を回転させて水平線のオフセットを補正するためのに利用可能であることを示す。 To improve understanding, FIG. 10G also includes a representation of visual content that was recorded and stored as part of the video recording, but was not displayed as part of camera display area 604 during recording. These representations shown outside of device 600 are not part of the user interface of device 600, but are provided for improved understanding. For example, FIG. 10G shows that the visual content of live preview 630 displayed in indicator area 602 and control area 606 was recorded as part of the video recording, and some images were not displayed in live preview 630 during recording. Visual content is also stored as part of the video recording 1032, all of which are available in the device 600 to rotate the video recording 1032 to compensate for horizontal offset.

図10Gでは、ビデオ編集オプション1060を表示している間に、デバイス600は、タッチ感知面を使用して、水平線調整アフォーダンス1060bに対応する位置でのタップジェスチャ1050iを検出する。図10Hに示すように、タップジェスチャ1050iを検出したことに応じて、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を修正する。完了アフォーダンス1036cのアクティブ化は、ビデオ記録1032に行われた修正を保存する一方で、取消アフォーダンス1036dのアクティブ化は、ビデオ記録1032に行われた修正を復元する。 In FIG. 10G, while displaying video editing options 1060, device 600 uses its touch-sensitive surface to detect tap gesture 1050i at a location corresponding to horizon adjustment affordance 1060b. As shown in FIG. 10H, in response to detecting tap gesture 1050i, device 600 was not displayed within camera display area 604 during video recording and/or was displayed within live preview 630 during video recording. Modify video recording 1032 such that horizontal line 1040a is not displayed offset (eg, parallel to the top (or bottom) of the display of device 600) by using (eg, introducing) visual content that was not present. . Activating completion affordance 1036 c preserves modifications made to video recording 1032 , while activating undo affordance 1036 d restores modifications made to video recording 1032 .

図10Gに戻ると、デバイス600がタップジェスチャ1050gを検出して、編集モードに入る代わりに、デバイス600は、タッチ感知面を使用して、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ1050hを検出する。図10Hに示すように、タップジェスチャ1050gを検出したことに応じて、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を自動的に(かつ更なるユーザ入力を必要とせずに)修正する。いくつかの実施形態では、自動調整は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用することができる、水平線補正(例えば、鮮明化、露光補正)を超える追加の調整を含む。 Returning to FIG. 10G, instead of device 600 detecting tap gesture 1050g and entering edit mode, device 600 uses the touch-sensitive surface to perform tap gesture 1050h at a location corresponding to auto-adjust affordance 1036b. To detect. As shown in FIG. 10H, in response to detecting tap gesture 1050g, device 600 was not displayed within camera display area 604 during video recording and/or was displayed within live preview 630 during video recording. By using (e.g., introducing) visual content that was not present, video recording 1032 is automatically adjusted such that horizontal line 1040a is not displayed at an offset (e.g., parallel to the top (or bottom) of the display of device 600). (and without requiring further user input). In some embodiments, automatic adjustment can use visual content that was not displayed within camera display area 604 during video recording and/or was not displayed within live preview 630 during video recording. Includes additional adjustments beyond horizon correction (e.g. sharpening, exposure correction).

いくつかの実施形態では、図10I~図10Kに示すように、様々なユーザ入力は、ライブプレビュー630の倍率を変更する。図10Iにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ1050jを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Jに示すように、ライブプレビュー630を、タップジェスチャ1050jの大きさに基づかない所定のズームレベル(例えば、2×)までズームする。図10Jにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する位置でのタップジェスチャ1050kを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Kに示すように、ライブプレビュー630を、タップジェスチャ1050kの大きさに基づかない第2の所定のズームレベル(例えば、1×)までズームする。タップジェスチャ1050kを検出する代わりに、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する位置でのピンチ(又はデピンチ)ジェスチャ1050lを検出し、それに応じて、ライブプレビュー630を、ピンチ(又はデピンチ)ジェスチャ1050lの大きさに基づかないズームレベル(例えば、1.7×)までズームする(及び、任意選択的に、ズームアフォーダンス622のビジュアル要素を更新する)。 In some embodiments, various user inputs change the scale of the live preview 630, as shown in FIGS. 10I-10K. In FIG. 10I, device 600 uses its touch-sensitive surface to detect tap gesture 1050j at a location corresponding to zoom affordance 622 and accordingly updates the visual elements of zoom affordance 622, shown in FIG. 10J. As such, zooms live preview 630 to a predetermined zoom level (eg, 2×) that is not based on the magnitude of tap gesture 1050j. In FIG. 10J, device 600 uses its touch-sensitive surface to detect tap gesture 1050k at a location corresponding to zoom affordance 622 and accordingly updates the visual elements of zoom affordance 622, shown in FIG. 10K. As such, the live preview 630 is zoomed to a second predetermined zoom level (eg, 1×) that is not based on the magnitude of the tap gesture 1050k. Instead of detecting tap gesture 1050k, device 600 uses its touch-sensitive surface to detect pinch (or de-pinch) gesture 1050l at a location corresponding to live preview 630 in camera display area 604 and respond accordingly. , zooms the live preview 630 to a zoom level (eg, 1.7×) that is not based on the size of the pinch (or de-pinch) gesture 1050l (and optionally updates the visual elements of the zoom affordance 622). .

図11A~図11Cは、いくつかの実施形態による、電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。方法1100は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 11A-11C are flow diagrams illustrating methods for displaying a camera view using an electronic device, according to some embodiments. The method 1100 includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on different sides of the electronic device (e.g., front camera, rear camera)). device (eg, 100, 300, 500, 600). Some acts of method 1100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法1100は、カメラ視野を表示するための直感的な仕方を提供する。この方法は、カメラ視野を表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラ視野にアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1100 provides an intuitive way to display the camera view. This method reduces the user's cognitive burden in displaying the camera view, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to access the camera view faster and more efficiently.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求を受信する(1102)。 An electronic device (eg, 600) receives a request to display a camera user interface (1102).

カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って(1104)(例えば、基準は、デバイスが特定のメディア(例えば、4Kビデオ)をキャプチャするように構成されているとき又は特定のモード(例えば、ポートレートモード)で動作するように構成されているときに満たされる基準を含むことができる)、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(1106)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第1の部分の表現を含む第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含む(1108)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第2の部分の表現を含む第2の領域(例えば、606)(例えば、カメラコントロール領域)を含む(1110)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分は、第1の部分と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域(例えば、604)の上方及び/又は下方に位置する。カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、カメラユーザインタフェース(カメラユーザインタフェースは、第1の領域及び第2の領域を含む)を表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a request to display the camera user interface, and in accordance with a determination that the respective criteria are not met (1104) (e.g., the criteria may indicate that the device is capturing a particular media (e.g., 4K video)). or to operate in a particular mode (e.g., portrait mode)), the electronic device (e.g., 600) displays A camera user interface is displayed 1106 via the device. The camera user interface includes (1108) a first region (eg, 604) (eg, a camera display region) that includes a representation of a first portion of the field of view (eg, 630) of one or more cameras. The camera user interface includes (1110) a second region (eg, 606) (eg, a camera control region) that includes a representation of a second portion of the field of view (eg, 630) of one or more cameras. In some embodiments, the second portion of the field of view of the one or more cameras is visually distinct from the first portion (eg, has a darker appearance) (eg, the field of view of the one or more cameras with a semi-transparent overlay on the second portion of the ). In some embodiments, the representation of the second portion of the field of view of the one or more cameras has a darker appearance compared to the representation of the first portion of the field of view of the one or more cameras. In some embodiments, representations of the second portion of the field of view of one or more cameras are located above and/or below the camera display area (eg, 604) within the camera user interface. a camera user interface (the camera user interface includes a first region and a second region) in response to receiving a request to display the camera user interface and in accordance with determining that the respective criteria are not met; By displaying , the electronic device performs an action when a set of conditions is met without requiring further user input, thereby enhancing the operability of the device and providing a user-device interface. more efficient (e.g., by helping users provide appropriate input and reducing user error when operating/interacting with a device), as well as allowing users to navigate their devices more quickly and Efficient usage reduces device power usage and improves battery life.

カメラユーザインタフェースが表示されている間に、電子デバイス(例えば、600)は、1つ以上のカメラでメディア(例えば、画像データ(例えば、静止画像、ビデオ))をキャプチャする要求に対応する入力(例えば、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の選択(例えば、アクティブ化されると、第1の領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス))を検出する(1112)。 While the camera user interface is displayed, the electronic device (e.g., 600) receives an input (e.g., an input (e.g., For example, detecting 1112 a selection of an image capture affordance (eg, a selectable user interface object) (eg, a shutter affordance that, when activated, captures an image of the content displayed within the first region). .

1つ以上のカメラでメディア(例えば、ビデオ、写真)をキャプチャする要求に対応する入力を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する(例えば、由来する)視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する(例えば、由来する)視覚コンテンツと、を含むメディアアイテム(例えば、ビデオ、写真)を、1つ以上のカメラでキャプチャする(1114)。 In response to detecting input corresponding to a request to capture media (e.g., video, photo) with one or more cameras, the electronic device (e.g., 600) displays the field of view (e.g., 630) of one or more cameras. ) and visual content corresponding to (eg, derived from) a second portion of the field of view of one or more cameras (eg, a media item (eg, , video, photos) are captured 1114 with one or more cameras.

メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、メディアアイテムを表示する要求(例えば、表示する要求)を受信する(1116)。 After capturing the media item, the electronic device (eg, 600) receives a request (eg, a request to display) to display the media item (1116).

いくつかの実施形態では、メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡(例えば、オブジェクト識別)動作を実行する(1118)。メディアアイテムをキャプチャした後に、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を(例えば、自動的に、ユーザ入力なしで)実行することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after capturing the media item, the electronic device (eg, 600) uses at least a third portion of visual content from a second portion of the field of view of one or more cameras to An object tracking (eg, object identification) operation is performed (1118). After capturing the media item, use at least a third portion of the visual content from the second portion of the field of view of the one or more cameras to perform object tracking operations (e.g., automatically, without user input). Enforcing reduces the number of inputs required to perform an operation, which enhances the usability of the device and reduces the user-device interface (e.g., user interaction when operating/interacting with the device) make it more efficient (by helping users make appropriate inputs and reducing user error), as well as reduce device power usage by allowing users to use the device more quickly and efficiently is reduced and battery life is improved.

メディアアイテムを表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現を表示する(1120)。いくつかの実施形態では、キャプチャされた画像データは、1つ以上のカメラの視野(例えば、630)の第1及び第2の部分の両方の表現を含む。いくつかの実施形態では、第2の部分の表現は、キャプチャされた画像データの表示表現から省略されるが、キャプチャされた画像データの表示表現を修正するために使用することができる。例えば、第2の部分は、カメラ安定化、オブジェクト追跡、カメラ視点の変更(例えば、ズーミングなし)、カメラの向きの変更(例えば、ズーミングなし)、及び/又はキャプチャされた画像データの表示表現に組み込むことができる追加の画像データを提供するために使用することができる。 In response to receiving a request to display a media item, an electronic device (eg, 600) renders a representation of at least a portion (or all) of visual content corresponding to a second portion of the field of view of one or more cameras. Without displaying, a first representation of visual content corresponding to a first portion of the field of view (eg, 630) of one or more cameras is displayed (1120). In some embodiments, the captured image data includes representations of both first and second portions of the field of view (eg, 630) of one or more cameras. In some embodiments, the representation of the second portion is omitted from the displayed representation of the captured image data, but can be used to modify the displayed representation of the captured image data. For example, the second part may be used for camera stabilization, object tracking, camera viewpoint change (eg, no zooming), camera orientation change (eg, no zooming), and/or display representation of captured image data. It can be used to provide additional image data that can be incorporated.

いくつかの実施形態では、視覚コンテンツの第1の表現を表示している間に、電子デバイス(例えば、600)は、視覚コンテンツの表現を修正(例えば、編集)する要求に対応する1組の1つ以上の入力を検出する(1122)。いくつかの実施形態では、1組の1つ以上の入力を検出したことに応じて、電子デバイス(例えば、600)は、視覚コンテンツの第2の(例えば、修正された又は編集された)表現を表示する(1124)。いくつかの実施形態では、視覚コンテンツの第2の表現は、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツと、視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく(例えば、由来する)視覚コンテンツと、を含む。1組の1つ以上の入力を検出したことに応じて、視覚コンテンツの第2の表現を表示することにより、ユーザが、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツ及び視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく視覚コンテンツにアクセスすることを可能にし、したがって、ユーザが、視覚コンテンツのより多く及び/又は視覚コンテンツの異なる部分にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、視覚コンテンツの第2の表現は、編集動作に応じて、生成及び表示される。いくつかの実施形態では、第2の表現は、第1の表現に含まれなかった、キャプチャされた視覚コンテンツの少なくとも一部分を含む。 In some embodiments, while displaying the first representation of the visual content, the electronic device (eg, 600) responds to requests to modify (eg, edit) the representation of the visual content. One or more inputs are detected (1122). In some embodiments, in response to detecting a set of one or more inputs, the electronic device (eg, 600) creates a second (eg, modified or edited) representation of the visual content. is displayed (1124). In some embodiments, the second representation of the visual content includes visual content from at least a portion of the first portion of the field of view of the one or more cameras and one or more visual content not included in the first representation of the visual content. and visual content based on (eg, derived from) at least a portion of the visual content from the second portion of the field of view of the one or more cameras. Displaying the second representation of the visual content in response to detecting the set of one or more inputs allows the user to view from at least a portion of the first portion of the field of view of the one or more cameras. enabling access to visual content based on at least a portion of the visual content from a second portion of the field of view of one or more cameras that was not included in the content and the first representation of the visual content; Allowing access to more of the visual content and/or different portions of the visual content. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, a second representation of visual content is generated and displayed in response to an editing action. In some embodiments, the second representation includes at least a portion of the captured visual content that was not included in the first representation.

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の視覚的視点からの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である(例えば、第1の視覚的視点から第2の視覚的視点へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、かつユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is from a first visual perspective (eg, the visual perspective of one or more cameras at the time the media item was captured, the original perspective, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. is a representation from a second visual viewpoint that is different from the first visual viewpoint (e.g., changing the representation from the first visual viewpoint to the second visual viewpoint is add or alternatively remove some of the visual content corresponding to part 2). A second visual viewpoint different from the first visual viewpoint generated based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. provides the user with access to the additional visual content and allows the user to view the additional visual content by providing a second representation of the visual content that is a representation from the visual perspective of do. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) (by) making the user-device interface more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently .

いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の向きの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きの表現である(例えば、第1の向きから第2の向き(例えば、水平線、縦、横)へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、かつユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation in a first orientation (e.g., the visual viewpoint of one or more cameras at the time the media item was captured, the original viewpoint, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. is a representation of a second orientation different from the first orientation generated by add or alternatively remove some of the visual content corresponding to part 2). A second orientation, different from the first orientation, generated based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. provides the user with access to the additional visual content and allows the user to view the additional visual content. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. .

いくつかの実施形態では、第1の表現は、第1のズームレベルで表示される。いくつかの実施形態では、視覚コンテンツの第1の表現は、第1のズームレベルの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1のズームレベルとは異なる第2のズームレベルでの表現である(例えば、第1のズームレベルから第2のズームレベルへ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。いくつかの実施形態では、デバイスがポートレートキャプチャモードで動作している間に、第1のズームレベルを第2のズームレベルに変更する要求は、デバイスがポートレートモードで動作するように構成されている間に表示されるズームオプションアフォーダンスの選択に対応する。 In some embodiments, the first representation is displayed at a first zoom level. In some embodiments, the first representation of the visual content is a representation at a first zoom level (eg, the visual viewpoint of one or more cameras at the time the media item was captured, the original viewpoint , uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. is a representation at a second zoom level that is different from the first zoom level (e.g., changing the representation from the first zoom level to the second zoom level produces add or alternatively remove some of the corresponding visual content). In some embodiments, a request to change the first zoom level to the second zoom level while the device is operating in portrait capture mode is performed when the device is configured to operate in portrait mode. Corresponds to the selection of the zoom option affordance that appears while zooming.

いくつかの実施形態では、視覚コンテンツの第1の表現は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第2の部分を使用して(例えば、カメラのキャプチャを安定化させるために第2の部分に対応する視覚コンテンツからのピクセルを使用して)、デジタル画像安定化動作に少なくとも部分的に基づいて生成される。 In some embodiments, the first representation of the visual content uses at least a second portion of the visual content from a second portion of the field of view of one or more cameras (e.g., stabilizes the camera capture). using pixels from the visual content corresponding to the second portion to stabilize), is generated based at least in part on the digital image stabilization operation.

いくつかの実施形態では、メディアアイテムを表示する要求は、メディアアイテムを表示する第1の要求である(1126)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示した後に、電子デバイス(例えば、600)は、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求(例えば、第2の要求を第2の受信することは、メディアアイテムを表示する要求に対応する1つ以上の入力を検出することを含む))を受信する(1128)。いくつかの実施形態では、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現及び1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの表現を表示する(1130)。いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)の第2の部分の表現は、表示されたメディア内の1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、表示されたメディアは、表現を含む第1の領域と、1つ以上のカメラの視野(例えば、630)の第2の部分に対応する視覚コンテンツの表現を含む第2のメディアとを有する。 In some embodiments, the request to display the media item is the first request to display the media item (1126). In some embodiments, the first view of the one or more cameras is viewed without displaying a representation of at least a portion (or all) of the visual content corresponding to the second portion of the one or more cameras' views. After displaying the first representation of the visual content corresponding to the portion, the electronic device (eg, 600) makes a second request to display the media item (eg, a request to edit the media item (eg, a second request the second receiving includes detecting one or more inputs corresponding to a request to display the media item)) receives (1128). In some embodiments, in response to receiving a second request to display a media item (eg, a request to edit the media item), the electronic device (eg, 600) adjusts the field of view of one or more cameras. A first representation of the visual content corresponding to the first portion of (eg, 630) and a representation of the visual content corresponding to the second portion of the field of view of the one or more cameras is displayed (1130). In some embodiments, a representation of the second portion of the one or more cameras' fields of view (eg, 630) is compared to a representation of the first portion of the one or more cameras' fields of view in the displayed media. and has a dark appearance. In some embodiments, the displayed media includes a first region containing representations and a second region containing representations of visual content corresponding to a second portion of the field of view (eg, 630) of one or more cameras. media and

いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、第2のカメラユーザインタフェースを表示し、第2のカメラユーザインタフェースが、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む(1132)。カメラユーザインタフェースを表示する要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む第2のカメラユーザインタフェースを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、メディアをキャプチャする要求に対応する入力を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応するメディアをキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツを含むメディアアイテムをキャプチャする。 In some embodiments, in response to receiving a request to display the camera user interface and following determination that the respective criteria are met, the electronic device (eg, 600), via the display device , displaying a second camera user interface, the first portion of the field of view of the one or more cameras without the second camera user interface including a representation of the second portion of the field of view of the one or more cameras. (1132). In response to receiving a request to display a camera user interface and in accordance with a determination that the respective criteria are met, one or more cameras without including a representation of the second portion of the field of view. By displaying a second camera user interface including a representation of the first portion of the camera's field of view above, the electronic device operates when a set of conditions are met without requiring further user input. , which enhances the operability of the device and improves the user-device interface (e.g., assists the user in making appropriate inputs when operating/interacting with the device, and corrects user error). In addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. In some embodiments, in response to detecting input corresponding to a request to capture media, an electronic device (eg, 600) captures media corresponding to a second portion of the field of view of one or more cameras. A media item is captured that includes visual content corresponding to a first portion of the field of view of one or more cameras without capturing.

いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信する(1134)。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて(1136)、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示する(例えば、インジケーションは、アラートを含み、メディアアイテムは、使用可能な追加のコンテンツを含み、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合に、インジケーションが表示される)。以前にキャプチャされたメディアアイテムを表示する要求を受信したことに応じて、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することによって、電子デバイスは、ユーザに(例えば、メディアアイテムを編集するための)追加の制御オプションを提供し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応じて(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示することをやめる(例えば、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合、メディアアイテムは、表示されない)(1140)。 In some embodiments, the electronic device (eg, 600) receives a request to display a previously captured media item (eg, a request to edit the media item) (1134). In some embodiments, in response to receiving 1136 a request to view a previously captured media item (eg, a request to edit the media item), the previously The electronic device (eg, 600) displays an indication of additional content (eg, the indication includes an alert, the media item is available indication is displayed when a media item with additional content and no additional content is captured). Indication of additional content in response to receiving a request to display a previously captured media item and in accordance with a determination that the previously captured media item was captured when the respective criteria were not met. By displaying the electronic device provides the user with additional control options (e.g., for editing a media item), which enhances the usability of the device and provides a user-device interface (e.g., more efficient (by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), as well as allowing the user to use the device more quickly and efficiently By enabling it, the device uses less power and improves battery life. In some embodiments, in response to receiving 1136 a request to display a previously captured media item (eg, a request to edit the media item), previously Upon determining that the captured media item has been captured, the electronic device (eg, 600) ceases to display indications of additional content (eg, if a media item containing no additional content is captured). , the media item is not displayed) (1140).

いくつかの実施形態では、それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む。 In some embodiments, each criterion includes criteria that are met when the electronic device (eg, 600) is configured to capture media items at a resolution of 4000 horizontal pixels or greater.

いくつかの実施形態では、それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む(例えば、ポートレートモードでは、ズームレベル(例えば、0.5×、1×、2×ズーム)の間にある間は、追加のコンテンツを含まない)。 In some embodiments, each criterion includes criteria that are met when the electronic device (eg, 600) is configured to operate in portrait mode at a given zoom level (eg, portrait mode does not include additional content while between zoom levels (eg, 0.5x, 1x, 2x zoom).

いくつかの実施形態では、それぞれの基準は、1つ以上のカメラのうちの少なくとも1つのカメラ(例えば、周辺カメラ)が所定の期間(例えば、5秒)にわたって焦点を(例えば、視野内の1つ以上のオブジェクト上に)維持できないときに満たされる基準を含む。 In some embodiments, each criterion is such that at least one of the one or more cameras (e.g., the peripheral camera) is focused (e.g., one in the field of view) for a predetermined period of time (e.g., 5 seconds). contains criteria that are met when they cannot be maintained (on one or more objects).

いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する入力は、1つ以上のカメラでメディアをキャプチャする要求に対応する第1の入力である。いくつかの実施形態では、カメラユーザインタフェースが表示されている間に、電子デバイスは、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出する。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応じて、かつ追加のコンテンツ設定(例えば、図37の3702a、3702a2、3702a3)に基づいて1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現(例えば、領域604内に表示された)をキャプチャし、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現(例えば、領域602及び/又は606内に表示された)をキャプチャする。いくつかの実施形態では、電子デバイスは、追加のコンテンツキャプチャ設定アフォーダンスを含む設定ユーザインタフェースを表示し、これは、選択されると、電子デバイスに、メディアをキャプチャする要求に応じて、電子デバイスが自動的に(追加のユーザ入力なしで)第2のコンテンツをキャプチャする状態に又は状態から変更させる。いくつかの実施形態では、追加のコンテンツキャプチャ設定は、ユーザが構成可能である。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応じて、かつ追加のコンテンツ設定に基づいて1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されていないとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現をキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現をキャプチャする。いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第2の部分をキャプチャすることをやめる。 In some embodiments, the input corresponding to a request to capture media with one or more cameras is a first input corresponding to a request to capture media with one or more cameras. In some embodiments, while the camera user interface is being displayed, the electronic device detects a second input corresponding to a request to capture media with one or more cameras. In some embodiments, additional content settings (eg, 3702a, 3702a2, 3702a3 of FIG. 37) in response to detecting a second input corresponding to a request to capture media with one or more cameras, and the electronic device is configured to capture visual content corresponding to a second portion of the field of view of the one or more cameras based on Capture a first representation (eg, displayed within region 604) of the visual content corresponding to one portion, and a representation of at least a portion of the visual content corresponding to a second portion of the field of view of one or more cameras. (eg, displayed within regions 602 and/or 606). In some embodiments, the electronic device displays a settings user interface that includes additional content capture settings affordances that, when selected, cause the electronic device to respond to a request to capture media. Automatically (without additional user input) cause the state to change to or from capturing the second content. In some embodiments, additional content capture settings are user configurable. In some embodiments, in response to detecting a second input corresponding to a request to capture media with the one or more cameras, and based on additional content settings, the field of view of the one or more cameras is Upon determining that the electronic device is not configured to capture visual content corresponding to the second portion, the electronic device captures at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. A first representation of visual content corresponding to a first portion of the field of view of one or more cameras is captured without capturing a representation. In some embodiments, the electronic device ceases capturing the second portion of the field of view of the one or more cameras.

方法1100に関して上述された処理(例えば、図11A~図11C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processes described above with respect to method 1100 (eg, FIGS. 11A-11C) are also applicable in an analogous manner to the methods described above and below. For example, methods 700, 900, 1300, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 1100. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図12A~図12Iは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図13A~図13Bにおける処理を含む、以下で説明する処理を例示するために使用される。 12A-12I illustrate exemplary user interfaces for accessing media items using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.

図12Aに示すように、デバイス600は、カメラ起動アイコン1202を含むホームユーザインタフェーススクリーン1200を表示する。ホームユーザインタフェース1200を表示している間に、デバイス600は、カメラ起動アイコン1202上の入力1295aを検出する。 As shown in FIG. 12A, device 600 displays home user interface screen 1200 including camera launch icon 1202 . While displaying home user interface 1200 , device 600 detects input 1295 a on camera launch icon 1202 .

入力1295aを検出したことに応じて、デバイス600は、図12Bに見られるように、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606を含むユーザインタフェースを表示する。インジケータ領域602は、フラッシュインジケータ602aと、アニメーション化された画像をキャプチャする(例えば、メディアをキャプチャする要求に応じて、既定の数の画像をキャプチャする)ようにデバイス600が現在構成されていることを示すアニメーション化された画像状態インジケータ602dと、を含む。カメラディスプレイ領域604は、ライブプレビュー630を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラ(例えば、背面カメラ)の視野の表現である。 In response to detecting input 1295a, device 600 displays a user interface including indicator area 602, camera display area 604, and control area 606, as seen in FIG. 12B. Indicator area 602 includes a flash indicator 602a and an indication that device 600 is currently configured to capture animated images (eg, capture a predetermined number of images in response to a media capture request). and an animated image state indicator 602d showing Camera display area 604 includes live preview 630 . Live preview 630 is a representation of the view of one or more cameras (eg, rear cameras) of device 600 .

コントロール領域606は、メディアコレクション624を含む。デバイス600は、メディアコレクション624を、積み重ねられているものとして、かつデバイス縁部1214に近接させて表示する。メディアコレクション624は、メディアコレクションの第1の部分1212a(例えば、メディアコレクション624の左半分)と、メディアコレクションの第2の部分1212b(例えば、メディアコレクション624の積み重ね内の上部表現)と、を含む。いくつかの実施形態では、カメラユーザインタフェースが起動されると、デバイス600は、自動的に、ユーザ入力なしで、デバイス縁部1214からデバイス600の中心に向かってスライドするメディアコレクション624のアニメーションを表示する。いくつかの実施形態では、アニメーションが開始されると、メディアコレクション1212bの第1の部分は、最初に表示されない(例えば、上部表現のみが最初に視認可能である)。更には、カメラコントロール領域612は、シャッターアフォーダンス610を含む。図12Bにおいて、デバイス600は、ライブプレビュー630が横断歩道を歩いている女性を示している間に、シャッターアフォーダンス610上のタップ入力1295bを検出する。 Control area 606 includes media collection 624 . Device 600 displays media collection 624 as stacked and adjacent device edge 1214 . The media collection 624 includes a first portion 1212a of the media collection (eg, the left half of the media collection 624) and a second portion 1212b of the media collection (eg, the top representation within the stack of the media collection 624). . In some embodiments, when the camera user interface is activated, device 600 automatically displays an animation of media collection 624 sliding from device edge 1214 toward the center of device 600 without user input. do. In some embodiments, when the animation begins, the first portion of media collection 1212b is not initially displayed (eg, only the top representation is initially visible). Additionally, camera control area 612 includes shutter affordance 610 . In FIG. 12B, device 600 detects tap input 1295b on shutter affordance 610 while live preview 630 shows a woman walking in a crosswalk.

図12C~図12Fは、入力1295bに応じて、アニメーション化されたメディアのキャプチャを示す。 Figures 12C-12F illustrate the capture of animated media in response to input 1295b.

図12Cにおいて、アニメーション化されたメディアのキャプチャ(例えば、シーケンスでの既定の複数の画像のキャプチャ)中の第1の時点に対応して、ライブプレビュー630は、横断歩道を更に進んでいる女性と、横断歩道に進入している男性と、を示す。コントロール領域606は、メディアコレクション624を含まず、メディアコレクション624は、メディアがキャプチャされている間に示されない。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャしている間に表示される。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャしている間に単一の表現(例えば、積み重ねの上部表現)のみで表示される。 In FIG. 12C, corresponding to a first point in time during animated media capture (e.g., capturing multiple default images in a sequence), live preview 630 shows a woman traveling further down a pedestrian crossing. , with a man entering a crosswalk. Control area 606 does not contain media collection 624, and media collection 624 is not shown while media is being captured. In some embodiments, media collection 624 is displayed while media is being captured. In some embodiments, the media collection 624 is displayed in only a single representation (eg, a top representation of a stack) while capturing media.

図12Dにおいて、アニメーション化されたメディアのキャプチャ中の第2の時点に対応して、ライブプレビュー630は、横断歩道から出始めている女性と、一方、横断歩道を更に進んでいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第1の画像(例えば、入力1295bが検出された0.5秒後にキャプチャされた画像)の表現を含む。 In FIG. 12D, corresponding to a second point in time during the animated media capture, a live preview 630 shows a woman starting to exit the crosswalk while a man continues along the crosswalk. . A media collection 624 is shown, the first of a plurality of images captured during the ongoing capture of animated media (e.g., the image captured 0.5 seconds after input 1295b was detected). ) expression.

図12Eにおいて、アニメーション化されたメディアのキャプチャ中の第3の時点に対応して、ライブプレビュー630は、横断歩道から部分的に出ている女性と、横断歩道の中央にいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第2の画像(例えば、入力1295bが検出された1秒後にキャプチャされた画像)の表現を含む。いくつかの実施形態では、第2の画像は、図12Dに示される表現の上に重ね合わされる(例えば、スタックとして)。 In FIG. 12E, corresponding to a third point in time during the animated media capture, live preview 630 shows a woman partially exiting the crosswalk and a man in the middle of the crosswalk. . A media collection 624 is shown showing a second image of a plurality of images captured during the ongoing capture of animated media (e.g., an image captured one second after input 1295b was detected). Contains expressions. In some embodiments, the second image is superimposed (eg, as a stack) on top of the representation shown in FIG. 12D.

図12Fにおいて、デバイス600は、アニメーション化されたメディアのキャプチャを完了した。メディアコレクション624は、スタックの上部に、他の以前にキャプチャされたメディア(例えば、アニメーション化されたメディアキャプチャ動作中にキャプチャされたもの以外のメディア)上に重ね合わされたキャプチャされたアニメーション化されたメディアの単一の表現(例えば、既定の複数のキャプチャされた画像を表す単一の表現)を現在含む。 In FIG. 12F, device 600 has completed capturing the animated media. At the top of the stack, a media collection 624 contains captured animated images overlaid on top of other previously captured media (e.g., media other than the one captured during the animated media capture operation). It currently contains a single representation of the media (eg, a single representation representing predefined multiple captured images).

図12Gに示すように、表現メディアコレクション624が所定の期間にわたって表示されたことを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクションの第1の部分1212aを表示することを停止する。図12Gに示すように、デバイス600は、メディアコレクションの第2の部分1212bの表示を維持する一方で、メディアコレクションの第1の部分1212aを表示することを停止する。いくつかの実施形態では、メディアコレクションの第1の部分1212aを表示することを停止することとは、メディアコレクション624をデバイス縁部1214に向かってスライドするアニメーションを表示することを含む。メディアコレクションの第1の部分1212aを表示すること及びメディアコレクションの第2の部分1212bの維持すること停止した後で、追加のコントロールアフォーダンス614は、メディアコレクション624によって以前に占有された位置に表示される。更には、メディアコレクションの第1の部分1212aを表示することを停止した後で、デバイス600は、デバイス縁部1214から離れて動くスワイプ入力1295cを検出する。 As shown in FIG. 12G, in response to detecting that expressive media collection 624 has been displayed for a predetermined period of time, device 600 stops displaying a first portion 1212a of media collection 624. do. As shown in FIG. 12G, the device 600 stops displaying the first portion 1212a of the media collection while maintaining the display of the second portion 1212b of the media collection. In some embodiments, stopping displaying the first portion 1212 a of the media collection includes displaying an animation that slides the media collection 624 toward the device edge 1214 . After stopping displaying the first portion 1212a of the media collection and maintaining the second portion 1212b of the media collection, the additional control affordance 614 is displayed at the position previously occupied by the media collection 624. be. Additionally, after stopping displaying the first portion 1212 a of the media collection, the device 600 detects a swipe input 1295 c moving away from the device edge 1214 .

図12Hに示すように、スワイプ入力1295cを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクション1212bの第1の部分を再表示する。メディアコレクション1212bの第1の部分を再表示した後、デバイス600は、メディアコレクション624が追加のコントロールアフォーダンス614が占有された位置を覆うため、追加のコントロールアフォーダンス614を表示することを停止する。メディアコレクション624を表示している間に、デバイス600は、メディアコレクション624上のタップ入力1295dを検出する。 In response to detecting swipe input 1295c, device 600 redisplays a first portion of media collection 1212b of media collection 624, as shown in FIG. 12H. After redisplaying the first portion of media collection 1212b, device 600 stops displaying additional control affordances 614 because media collection 624 covers the position occupied by additional control affordances 614. FIG. While displaying media collection 624 , device 600 detects tap input 1295 d on media collection 624 .

図12Iに示すように、タップ入力1295dを検出したことに応じて、デバイス600は、拡大表現1226(例えば、図12B~図12Fでキャプチャされたアニメーション化されたメディアの表現)を表示する。表現1226は、図12Hのメディアコレクション624のスタックの上部に表示された小表現に対応する。いくつかの実施形態では、閾値強度よりも高い特性強度又は閾値持続時間よりも長い持続時間を有する表現1226上の接触に応じて、デバイス600は、表現1226に対応するアニメーション化されたメディアを再生する。拡大表現1226を表示している間に、デバイス600は、戻るアフォーダンス1236上の入力1295eを検出する。 As shown in FIG. 12I, in response to detecting tap input 1295d, device 600 displays enlarged representation 1226 (eg, a representation of the animated media captured in FIGS. 12B-12F). Representation 1226 corresponds to the sub-representation displayed at the top of the stack of media collection 624 in FIG. 12H. In some embodiments, in response to a touch on representation 1226 having a characteristic intensity greater than the threshold intensity or a duration greater than the threshold duration, device 600 plays animated media corresponding to representation 1226. do. While displaying enlarged representation 1226 , device 600 detects input 1295 e on return affordance 1236 .

図12Jに示すように、入力1295eを検出したことに応じて、デバイス600は、メディアの拡大表現1226から出て、デバイス縁部1214付近にメディアコレクション624を表示する。メディアコレクション624を表示している間に、デバイス600は、デバイス縁部1214に向かって動くスワイプジェスチャである入力1295fを検出する。 In response to detecting input 1295e, device 600 exits expanded media representation 1226 and displays media collection 624 near device edge 1214, as shown in FIG. 12J. While displaying media collection 624 , device 600 detects input 1295 f which is a swipe gesture moving towards device edge 1214 .

図12Kに示すように、スワイプ入力1295fを検出したことに応じて、デバイス600は、メディアコレクション624のメディアコレクションの第1の部分1212aを表示することを停止し、追加のコントロールアフォーダンス616を再表示する。 In response to detecting swipe input 1295f, device 600 stops displaying media collection first portion 1212a of media collection 624 and redisplays additional control affordance 616, as shown in FIG. 12K. do.

図13A~図13Bは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。方法1300は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 13A-13B are flow diagrams illustrating methods for accessing media items using an electronic device, according to some embodiments. The method 1300 includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on different sides of the electronic device (e.g., front camera, rear camera)). device (eg, 100, 300, 500, 600). Some acts of method 1300 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法1300は、メディアアイテムにアクセスするための直感的な仕方を提供する。この方法は、メディアアイテムにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 1300 provides an intuitive way to access media items. This method reduces the user's cognitive burden in accessing media items, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to access media items faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示し、カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)(1302)。 An electronic device (eg, 600) displays, via a display device, a camera user interface, which includes a camera display area (eg, 604) that includes a representation (eg, 630) of one or more cameras' fields of view. ) (eg, displayed simultaneously) (1302).

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求(例えば、物理カメラシャッターボタン又は仮想カメラシャッターボタンなどのキャプチャアフォーダンスのアクティブ化)を検出する(1304)。 While displaying a camera user interface, an electronic device (eg, 600) makes a request (eg, a physical camera shutter button or a virtual camera activation of a capture affordance, such as a shutter button) is detected (1304).

1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求を検出したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現(例えば、1224)を表示する(1306)。 In response to detecting a request to capture media corresponding to one or more camera views (eg, 630), the electronic device (eg, 600) captures media corresponding to one or more camera views. and displays 1306 a representation of the captured media (eg, 1224).

キャプチャされたメディアの表現を表示している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する(1308)。いくつかの実施形態では、イベントに応じて、所定の時間が開始される(例えば、画像をキャプチャする、カメラアプリケーションを起動するなど)。いくつかの実施形態では、所定の時間の長さは、検出されたイベントに基づいて判定される。例えば、イベントが第1のタイプ(例えば、静止画像)の画像データをキャプチャしている場合、所定の時間は、一定時間(例えば、0.5秒)であり、イベントが第2のタイプ(例えば、ビデオ)の画像データをキャプチャしている場合、所定の時間量は、キャプチャされた画像データの量(例えば、キャプチャされたビデオの長さ)に対応する。 While displaying the captured media representation, the electronic device (eg, 600) detects that the captured media representation has been displayed for a predetermined period of time (1308). In some embodiments, a predetermined amount of time is initiated (eg, capturing an image, launching a camera application, etc.) in response to an event. In some embodiments, the predetermined length of time is determined based on the detected event. For example, if the event is capturing image data of a first type (e.g., still image), the predetermined time is a fixed time (e.g., 0.5 seconds), and the event is of a second type (e.g., , video), the predetermined amount of time corresponds to the amount of captured image data (eg, the length of the captured video).

いくつかの実施形態では、キャプチャされたメディアの表現が表示されている間に、電子デバイス(例えば、600)は、キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力(例えば、キャプチャされたメディアの表現上の選択(例えば、タップ)に対応するユーザ入力)を検出する(1310)。いくつかの実施形態では、キャプチャされたメディアの表現の選択に対応するユーザ入力を検出したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、(例えば、メディアの表現を拡大する)キャプチャされたメディアの拡大表現を表示する(1312)。 In some embodiments, while the representation of the captured media is being displayed, the electronic device (eg, 600) responds to user input (eg, capture Detect 1310 the user input corresponding to the expressed media selection (eg, tap). In some embodiments, in response to detecting user input corresponding to selection of a representation of captured media, the electronic device (eg, 600), via a display device, Magnify) Display a magnified representation of the captured media (1312).

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第5の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止した後に、電子デバイス(例えば、600)は、第5の位置に複数のカメラ設定を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止した後、複数のカメラ設定を制御するアフォーダンスを表示することにより、ユーザに、容易にアクセス可能及び使用可能な制御オプションを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a representation of the captured media is displayed at a fifth position on the display. In some embodiments, after stopping displaying at least a portion of the representation of the captured media while maintaining display of the camera user interface, the electronic device (eg, 600) performs a fifth Display affordances (eg, selectable user interface objects) that control multiple camera settings at a location. By displaying affordances for controlling multiple camera settings after ceasing to display at least a portion of the representation of the captured media while maintaining display of the camera user interface, the user can easily Provide accessible and usable control options. Improve the usability of the device by providing additional control options without cluttering the UI with additional controls that are displayed (e.g., user-friendly controls when manipulating/interacting with the device). making the user-device interface more efficient (by helping users make more accurate inputs and reducing user error), as well as by allowing users to use devices more quickly and efficiently Reduce usage and improve device battery life.

いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)に対応するメディア(例えば、ビデオ、動画(例えば、ライブフォト))をキャプチャすることは、画像のシーケンスをキャプチャすることを含む。1つ以上のカメラの視野に対応するメディアをキャプチャするときに画像のシーケンスを(例えば、自動的に、追加のユーザ入力なしで)キャプチャすることによって、電子デバイスは、改善されたフィードバックを提供し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することは、少なくとも2つの画像(例えば、ビデオ、写真)を含むキャプチャされた画像のシーケンスの少なくとも一部分を再生することを含む。いくつかの実施形態では、キャプチャされたビデオは、所定の期間にわたってループされる。 In some embodiments, capturing media (e.g., video, motion pictures (e.g., live photos)) corresponding to the field of view (e.g., 630) of one or more cameras means capturing a sequence of images. include. By capturing a sequence of images (e.g., automatically, without additional user input) when capturing media corresponding to the field of view of one or more cameras, the electronic device provides improved feedback. , which enhances the usability of the device and improves the user-device interface (e.g., assisting the user in making appropriate inputs and reducing user error when operating/interacting with the device). by making it more efficient, and in addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. In some embodiments, displaying the representation of the captured media includes playing at least a portion of a sequence of captured images including at least two images (e.g., video, photo). In some embodiments, the captured video is looped over a period of time.

いくつかの実施形態では、所定の期間は、画像のキャプチャされたシーケンスの持続時間に基づく(例えば、等しい)。いくつかの実施形態では、キャプチャされたメディアの表現は、ビデオメディアの再生が完了した後に表示を停止される。 In some embodiments, the predetermined time period is based on (eg, equal to) the duration of the captured sequence of images. In some embodiments, the representation of the captured media is discontinued after playback of the video media is complete.

キャプチャされたメディアの表現(例えば、1224)が所定の期間にわたって表示されたことを検出したことに応じて、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止する(1314)。キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分を表示することを停止することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することを停止することは、カメラコントロール領域外で動くキャプチャされたメディアの表現のアニメーションを表示することを含む(例えば、所定の時間量が満了すると、画像プレビューはアニメーション内のスクリーン外へ(例えば、左へ)スライドする)。 In response to detecting that the captured media representation (eg, 1224) has been displayed for a predetermined period of time, the electronic device (eg, 600), while maintaining display of the camera user interface, Displaying at least a portion of the representation of the captured media is stopped (1314). Displaying at least a portion of the captured media representation while maintaining display of the camera user interface in response to detecting that the captured media representation has been displayed for a predetermined period of time. Pausing reduces the number of inputs required to perform an operation, thereby enhancing the usability of the device and reducing the user-device interface (e.g., the user's make it more efficient (by helping users make appropriate inputs and reducing user error), as well as reduce device power usage by allowing users to use the device more quickly and efficiently is reduced and battery life is improved. In some embodiments, stopping displaying the captured media representation includes displaying an animation of the captured media representation moving outside the camera control area (e.g., for a predetermined amount of time). expires, the image preview slides off-screen (eg, to the left) in the animation).

いくつかの実施形態では、キャプチャされたメディアの表現の一部分は、キャプチャメディアの表現の第1の部分である。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することは、キャプチャされたメディアの表現の少なくとも第2の部分の表示を維持することを更に含む(例えば、表現の縁部は、ユーザインタフェースの縁部(例えば、表示デバイス(又は表示デバイス上のスクリーン)の縁部)の近くに張り出す)。 In some embodiments, the portion of the captured media representation is the first portion of the captured media representation. In some embodiments, stopping displaying at least the first portion of the captured media representation while maintaining display of the camera user interface may cause at least further comprising maintaining display of the second portion (eg, edges of the representation overhang near edges of the user interface (eg, edges of the display device (or screen on the display device))); .

いくつかの実施形態では、表現の第1の部分を表示することを停止する前に、キャプチャされたメディアの表現が、ディスプレイ上の第1の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止することは、ディスプレイ上の第1の位置から表示デバイスの縁部に対応するディスプレイ上の第2の位置に向かって、キャプチャされたメディアの表現を動かす(例えば、スライドする)アニメーションを表示することを更に含む(例えば、アニメーションは、カメラユーザインタフェースの縁部に向かってスライドする表現を示す)。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分を表示することを停止すると、ディスプレイ上の第1の位置から表示デバイスの縁部に対応するディスプレイ上の第2の位置に向かって、キャプチャされたメディアの表現を動かすアニメーションを表示することによって、ユーザに、表現の少なくとも第1の部分が表示から除去されているという視覚的フィードバックを提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the representation of the captured media is displayed at the first location on the display before stopping displaying the first portion of the representation. In some embodiments, stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface may be performed from the first position on the display. Further comprising displaying an animation of moving (e.g., sliding) the representation of the captured media toward a second position on the display corresponding to an edge of the display device (e.g., the animation may be displayed in the camera user interface). (showing a representation that slides towards the edge of the ). Stopping displaying at least a first portion of the representation of the captured media while maintaining display of the camera user interface results in a display corresponding to an edge of the display device from a first position on the display. By displaying an animation that moves the representation of the captured media upward toward a second position, the user is provided with visual feedback that at least the first portion of the representation has been removed from the display. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. .

いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第3の位置に表示される。いくつかの実施形態では、キャプチャされたメディアの第2の表現が表示されている間に、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力(例えば、表示デバイスの縁部に向かうスワイプジェスチャ)を検出する。いくつかの実施形態では、第2の表現の少なくとも一部分の表示を停止する要求を検出したことに応じて、カメラユーザインタフェースの表示を維持している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現の少なくとも一部分を表示することを停止する。 In some embodiments, a representation of the captured media is displayed at a third location on the display. In some embodiments, while the second representation of the captured media is being displayed, the electronic device (eg, 600) displays the captured media while maintaining display of the camera user interface. detecting user input (eg, a swipe gesture toward an edge of the display device) corresponding to a request to stop displaying at least a portion of the second representation of . In some embodiments, while maintaining display of the camera user interface in response to detecting a request to stop displaying at least a portion of the second representation, the electronic device (eg, 600): Stop displaying at least a portion of the second representation of the captured media.

いくつかの実施形態では、表現の第1の部分を表示することを停止した後に、電子デバイス(例えば、600)は、表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力(例えば、ディスプレイの縁部からのスワイプ)(例えば、表現(又はプレビュー)を表示(又は再表示)する要求に対応するユーザ入力)を受信する(1316)。いくつかの実施形態では、表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第5の位置への接触の移動に対応するユーザ入力を受信したことに応じて、電子デバイス(例えば、600)は、表現の第1の部分を再表示する(1318)。表示デバイスの縁部に対応するディスプレイ上の第4の位置から、ディスプレイ上の第5の位置への接触の移動に対応するユーザ入力を受信することに応じて、表現の第1の部分を再表示することにより、ユーザが、電子デバイスに迅速かつ容易に表現の第1の部分を再表示させることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after stopping displaying the first portion of the representation, the electronic device (e.g., 600) displays the image on the display from a fourth position on the display corresponding to the edge of the display device. A request to display (or redisplay) a user input (e.g., a swipe from the edge of the display) (e.g., a representation (or preview)) corresponding to moving the touch to a fifth position that is different from the fourth position of ) is received (1316). In some embodiments, the electronic The device (eg, 600) redisplays (1318) the first portion of the representation. Replaying the first portion of the representation in response to receiving user input corresponding to moving the contact from a fourth position on the display corresponding to an edge of the display device to a fifth position on the display. Displaying allows the user to cause the electronic device to quickly and easily redisplay the first portion of the representation. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life.

いくつかの実施形態では、カメラユーザインタフェースが表示されていない間(例えば、カメラユーザインタフェースを破棄した後)に、電子デバイス(例えば、600)は、カメラユーザインタフェースを再表示する要求を受信する(1320)。いくつかの実施形態では、カメラユーザインタフェースを再表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現を含む(例えば、自動的に含む)、カメラユーザインタフェースの第2のインスタンスを表示する(例えば、自動的に表示する)(1322)。いくつかの実施形態では、キャプチャされたメディアの第2の表現は、ディスプレイの縁部からUI上に平行移動する表現のアニメーション化されたシーケンスにより、表示される。 In some embodiments, while the camera user interface is not being displayed (eg, after discarding the camera user interface), the electronic device (eg, 600) receives a request to redisplay the camera user interface ( 1320). In some embodiments, in response to receiving a request to redisplay the camera user interface, the electronic device (eg, 600) includes (eg, automatically includes) the second representation of the captured media. ), displaying (eg, automatically displaying) a second instance of the camera user interface (1322). In some embodiments, the second representation of the captured media is displayed by an animated sequence of representations that translate from the edge of the display onto the UI.

いくつかの実施形態では、キャプチャされたメディアの表現を表示している間に、電子デバイスは、キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信する。いくつかの実施形態では、キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信したことに応じて、電子デバイスは、キャプチャされたメディアを共有するためのユーザインタフェースを表示する。いくつかの実施形態では、キャプチャされたメディアを共有するためのユーザインタフェースは、キャプチャされたメディアを共有するための複数のオプションを含む。 In some embodiments, while displaying a representation of the captured media, the electronic device receives user input corresponding to a request to display options for sharing the captured media. In some embodiments, in response to receiving user input corresponding to a request to display options for sharing captured media, the electronic device displays a user interface for sharing captured media. indicate. In some embodiments, the user interface for sharing captured media includes multiple options for sharing captured media.

方法1300に関して上述したプロセス(例えば、図13A~図13B)の詳細はまた、上記及び以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processes described above with respect to method 1300 (eg, FIGS. 13A-13B) are also applicable in an analogous manner to the methods described above and below. For example, methods 700, 900, 1100, 1500, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 1300. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図14A~図14Uは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図15A~図15Cにおける処理を含む、以下で説明する処理を例示するために使用される。 14A-14U illustrate exemplary user interfaces for modifying media items using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 15A-15C.

図14A~図14Dは、異なるアスペクト比を使用してメディアをキャプチャするようにデバイス600が構成される処理を示す。 Figures 14A-14D illustrate the process by which the device 600 is configured to capture media using different aspect ratios.

図14Aに示すように、デバイス600は、1つ以上のカメラの視野の表現であるライブプレビュー630を表示する。ライブプレビュー630は、視覚部分1404及び暗色部分1406を含む。視覚境界部608は、視覚部分1404と暗色部分1406との間にあり、デバイス600上に視覚的に表示される。視覚境界部608は、視覚境界部608の角部に既定の入力位置1410A~1410Dを含む。視覚部分1404は、メディアをキャプチャする要求に応じて、ユーザにキャプチャされ、表示されるメディアの視覚インジケーションである。換言すれば、視覚部分1404は、メディアがキャプチャされ、表現されたときに、典型的に表示されるメディアの表現の一部分の視覚インジケーションである。暗色部分1406は、メディアがキャプチャされ、表現された後に、典型的に表示されないメディアの一部分の視覚インジケーションである。視覚部分1404は、暗色部分1406と視覚的に区別される。具体的には、視覚部分1404は、陰影が付いていないが、暗色部分1406は、陰影が付いている。更には、デバイス600は、ズームアフォーダンス622を表示する。 As shown in FIG. 14A, device 600 displays live preview 630, which is a representation of the field of view of one or more cameras. Live preview 630 includes visual portion 1404 and dark portion 1406 . A visual boundary 608 is between the visual portion 1404 and the dark portion 1406 and is visually displayed on the device 600 . Visual boundary 608 includes default input locations 1410 A- 1410 D at the corners of visual boundary 608 . Visual portion 1404 is a visual indication of media captured and displayed to a user in response to a request to capture media. In other words, visual portion 1404 is a visual indication of the portion of the representation of media that is typically displayed when the media is captured and rendered. A darkened portion 1406 is a visual indication of a portion of the media that is typically not displayed after the media has been captured and rendered. Visual portion 1404 is visually distinct from dark portion 1406 . Specifically, visual portion 1404 is unshaded, while dark portion 1406 is shaded. Additionally, device 600 displays zoom affordance 622 .

図14A~図14Dは、全体入力1495Aの様々な部分を示す。全体入力1495Aは、視覚部分1404に対応するアスペクト比を、4×3のアスペクト比1400(例えば、視覚部分1404に対応する4:3アスペクト比)から新しいアスペクト比へ変更する。全体入力1495Aは、入力部分1495A1及び入力部分1495A2を含む。入力の静止構成要素に対応する入力部分1495A1は、全体入力1495Aの第1の部分であり、入力の移動構成要素に対応する入力部分1495A2は、全体入力1495Aの第2の部分である。図14Aに示すように、4×3のアスペクト比1400でメディアをキャプチャするようにデバイス600が構成されている間に、デバイスは、視覚境界部608の右上の角に対応する位置1410Aでの入力部分1495A1を検出する。 14A-14D show various portions of overall input 1495A. Overall input 1495A changes the aspect ratio corresponding to visual portion 1404 from 4×3 aspect ratio 1400 (eg, the 4:3 aspect ratio corresponding to visual portion 1404) to a new aspect ratio. Overall input 1495A includes input portion 1495A1 and input portion 1495A2. The input portion 1495A1 corresponding to the stationary component of the input is the first portion of the global input 1495A and the input portion 1495A2 corresponding to the moving component of the input is the second portion of the global input 1495A. As shown in FIG. 14A, while the device 600 is configured to capture media at a 4×3 aspect ratio 1400, the device will capture an input at location 1410A corresponding to the upper right corner of the visual boundary 608. Detect portion 1495A1.

図14Bでは、デバイス600は、入力部分1495A1が所定の期間(例えば、ゼロでない時間長、0.25秒、0.5秒)にわたって位置1410Aで維持されていると判定している。図14Bに示すように、この判定に従って、デバイス600は、視覚境界部608によって囲まれたエリアを収縮する。いくつかの実施形態では、視覚境界部608によって囲まれたエリアを収縮することにより、視覚境界部を(例えば、入力の更なる移動を使用して)現在は修正することができるというインジケーションを提供する。視覚境界部608によって囲まれたエリアを低減することにより、視覚部分1404のエリアが低減し、暗色部分1406のエリアが増加する。いくつかの実施形態では、デバイス600は、視覚境界部608が収縮し、視覚境界部608が空いているエリアに暗色部分1406が拡張する、アニメーションを表示する。視覚境界部608によって囲まれたエリアを収縮することに加えて、デバイス600は、触知出力1412Aを生成し、ズームアフォーダンス622を表示することを停止する。入力部分1495A1を検出した後に、デバイス600は、位置1410Aから認識して、下向き方向に動く全体入力1495Aの入力部分1495A2を検出する。 In FIG. 14B, device 600 has determined that input portion 1495A1 has been maintained at position 1410A for a predetermined period of time (eg, non-zero length of time, 0.25 seconds, 0.5 seconds). According to this determination, device 600 shrinks the area enclosed by visual boundary 608, as shown in FIG. 14B. In some embodiments, contracting the area enclosed by the visual boundary 608 provides an indication that the visual boundary can now be modified (eg, using further movement of the input). offer. Reducing the area enclosed by visual border 608 reduces the area of visual portion 1404 and increases the area of dark portion 1406 . In some embodiments, device 600 displays an animation in which visual border 608 contracts and dark portion 1406 expands into areas where visual border 608 vacates. In addition to contracting the area enclosed by visual boundary 608 , device 600 produces tactile output 1412 A and stops displaying zoom affordance 622 . After detecting input portion 1495A1, device 600 recognizes from position 1410A and detects input portion 1495A2 of overall input 1495A moving in a downward direction.

図14Cに示すように、入力部分1495A2を検出したことに応じて、デバイス600は、入力部分1495A2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。デバイス600は、新たに視覚境界部608を表示する。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Aのリフトオフを検出する。 As shown in FIG. 14C, in response to detecting input portion 1495A2, device 600 adjusts visual boundary 608 to its original position based on characteristics (eg, size and/or orientation) of input portion 1495A2. Move or translate from to a new position. Device 600 now displays visual border 608 . While displaying visual boundary 608 in its new position, device 600 detects a liftoff of global input 1495A.

図14Dに示すように、入力1495Aのリフトオフを検出したことに応じて、デバイス600は、視覚境界部608を拡張して、視覚境界部608のサイズを正方形のアスペクト比1416(例えば、視覚部分1404に対応する正方形のアスペクト比)に増大させる。正方形のアスペクト比1416は、所定のアスペクト比である。デバイス600は、入力部分1495A2が所定の正方形のアスペクト比に対して所定の近接範囲内にある最終位置を有する視覚境界部608をもたらしたと判定したので、デバイス600は、視覚境界部を、正方形のアスペクト比1416にスナップさせる。全体入力1495Aのリフトオフを検出したことに応じて、デバイス600はまた、触知出力1412Bを生成し、ズームアフォーダンス622を再表示する。更には、デバイス600は、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示す、アスペクト比状態インジケータ1420を表示する。 As shown in FIG. 14D, in response to detecting liftoff of input 1495A, device 600 expands visual boundary 608 to size visual boundary 608 to a square aspect ratio 1416 (e.g., visual portion 1404 square aspect ratio corresponding to ). Square aspect ratio 1416 is a predetermined aspect ratio. Device 600 determined that input portion 1495A2 resulted in visual boundary 608 having a final position that was within a predetermined proximity to the predetermined square aspect ratio, so device 600 defined the visual boundary as square. Snap to aspect ratio 1416. In response to detecting lift-off of global input 1495 A, device 600 also produces tactile output 1412 B and redisplays zoom affordance 622 . Additionally, the device 600 displays an aspect ratio status indicator 1420 that indicates that the device 600 is configured to capture square aspect ratio 1416 media.

いくつかの実施形態では、所定の正方形のアスペクト比(又は任意の他の所定のアスペクト比)に対して所定の近接範囲内にある最終位置を有さない入力部分1495A2に従って、視覚境界部608は、入力部分1495A2の大きさ及び方向に基づいて、所定のアスペクト比ではなく表示される。このようにして、ユーザは、カスタムアスペクト比を設定するか、又は所定のアスペクト比を容易に選択することができる。いくつかの実施形態では、デバイス600は、拡張する視覚境界部608のアニメーションを表示する。いくつかの実施形態では、デバイス600は、所定のアスペクト比にスナッピングする視覚境界部608のアニメーションを表示する。いくつかの実施形態では、触知出力412Bは、視覚境界部608が所定のアスペクト比(例えば、アスペクト比1416)にスナップされるときに提供される。 In some embodiments, according to input portion 1495A2 that does not have a final position within a predetermined proximity to a given square aspect ratio (or any other given aspect ratio), visual boundary 608 is , based on the size and orientation of input portion 1495A2, is displayed instead of a predetermined aspect ratio. In this way, a user can set a custom aspect ratio or easily select a predetermined aspect ratio. In some embodiments, device 600 displays an animation of expanding visual border 608 . In some embodiments, device 600 displays an animation of visual border 608 snapping to a predetermined aspect ratio. In some embodiments, tactile output 412B is provided when visual boundary 608 is snapped to a predetermined aspect ratio (eg, aspect ratio 1416).

図14Eに示すように、デバイス600は、視覚境界部608の右下の角に対応する所定の位置1404B上の全体入力1495Bの入力部分1495B1を検出する。入力部分1495B1は、位置1404Bで少なくとも所定の時間にわたって維持される接触である。図14Fに示すように、入力部分1495B1を検出したことに応じて、デバイス600は、図14Bで論じられたものと同様の技術を実行する。明確にするために、デバイス600は、視覚境界部608によって囲まれたエリアを収縮し、触知出力1412Cを生成する。デバイス600はまた、全体入力1495Bの入力部分1495B2を検出し、この入力は、位置1404Bから離れて下向き方向に動くドラッグである。 As shown in FIG. 14E, device 600 detects input portion 1495B1 of overall input 1495B on predetermined location 1404B corresponding to the lower right corner of visual boundary 608. FIG. Input portion 1495B1 is a contact maintained at location 1404B for at least a predetermined amount of time. As shown in FIG. 14F, in response to detecting input portion 1495B1, device 600 performs techniques similar to those discussed in FIG. 14B. For clarity, device 600 contracts the area enclosed by visual boundary 608 and produces tactile output 1412C. Device 600 also detects input portion 1495B2 of overall input 1495B, which is a drag moving in a downward direction away from position 1404B.

図14Gに示すように、入力部分1495B2の移動を検出したことに応じて、デバイス600は、入力部分1495B2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。視覚境界部608を新しい位置に移動させている間に、デバイス600は、視覚境界部608が4×3のアスペクト比1418にあることを検出する。入力1495Bのリフトオフを検出することなく、視覚境界部608が4×3のアスペクト比1418にあることを検出したことに応じて、デバイス600は、触知出力1412Dを発する。更には、デバイス600は、全体入力1495Bがリフトオフなしで依然として維持されているため、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示すアスペクト比状態インジケータ1420の表示を維持し、アスペクト比状態インジケータ1420を更新することをやめて、アスペクト比1418(例えば、4:3)のメディアをキャプチャするようにデバイス600が構成されていることを示す。 As shown in FIG. 14G, in response to detecting movement of input portion 1495B2, device 600 adjusts visual boundary 608 to its original position based on characteristics (eg, size and/or orientation) of input portion 1495B2. is moved or translated from its position to a new position. While moving visual border 608 to a new position, device 600 detects that visual border 608 is at aspect ratio 1418 of 4×3. In response to detecting that visual boundary 608 is at 4×3 aspect ratio 1418 without detecting lift-off of input 1495B, device 600 emits tactile output 1412D. Additionally, the device 600 displays an aspect ratio status indicator 1420 indicating that the device 600 is configured to capture media with a square aspect ratio 1416 since the overall input 1495B is still maintained without liftoff. and stop updating aspect ratio status indicator 1420 to indicate that device 600 is configured to capture media with aspect ratio 1418 (eg, 4:3).

図14Hに示すように、デバイス600は、入力部分1495B2を検出し続ける。視覚境界部608は、ここではアスペクト比1421であり、図14Gに示すその位置から新しい位置に移動した。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Bのリフトオフを検出する。 As shown in FIG. 14H, device 600 continues to detect input portion 1495B2. Visual boundary 608, now with aspect ratio 1421, has moved from its position shown in FIG. 14G to a new position. While displaying visual boundary 608 in its new position, device 600 detects a liftoff of global input 1495B.

図14Iに示すように、入力1495Bのリフトオフを検出したことに応じて、デバイス600は、1495Aのリフトオフの検出に対する応答に関連して、図14Dで論じられたものと同様の技術を実行する。明確にするために、図14Iに示すように、デバイス600は、視覚境界部608を所定の16×9のアスペクト比1422に拡張する。更には、デバイス600は、ズームアフォーダンス622を再表示し、アスペクト比状態インジケータ1418を更新して、16×9のアスペクト比1422(例えば、16:9)のメディアをキャプチャするようにデバイス600が構成されていることを示す。いくつかの実施形態では、デバイス600は、入力1495Bのリフトオフに応じて、触知出力を生成する。 As shown in FIG. 14I, in response to detecting liftoff of input 1495B, device 600 performs techniques similar to those discussed in FIG. 14D in connection with responding to detection of liftoff of 1495A. For clarity, device 600 expands visual boundary 608 to a predetermined 16×9 aspect ratio 1422, as shown in FIG. 14I. Further, device 600 redisplays zoom affordance 622 and updates aspect ratio status indicator 1418 such that device 600 is configured to capture media with a 16×9 aspect ratio 1422 (eg, 16:9). Indicates that In some embodiments, device 600 produces a tactile output in response to liftoff of input 1495B.

図14Jに示すように、デバイス600は、視覚境界部608の角に対応する既定の入力位置1404B上の入力1495C(例えば、連続的な上向きスワイプジェスチャ)を検出する。デバイス600は、1495Cが所定の期間(例えば、図14Bに関して論じられたのと同じ所定の期間)にわたって既定の入力位置1404B上で維持されていないと判定する。 As shown in FIG. 14J, device 600 detects input 1495C (eg, a continuous upward swipe gesture) on predefined input location 1404B corresponding to a corner of visual boundary 608. FIG. Device 600 determines that 1495C has not been maintained on default input position 1404B for a predetermined period of time (eg, the same predetermined period of time discussed with respect to FIG. 14B).

図14Kに示すように、入力1495Cに応じて、デバイス600は、上記図8A~図8Bにおいてカメラ設定アフォーダンス802を表示するための上述された技術に従って、カメラ設定アフォーダンス624を表示する。しかしながら、入力1495Cが視覚境界部608の角部に対応する位置1404Bで静止接触を含まなかったため、デバイス600は、入力1495Cに応じて、視覚境界部608を調整しない。いくつかの実施形態では、カメラ設定アフォーダンス624及びカメラ設定アフォーダンス802は、同一である。カメラ設定アフォーダンス624を表示している間に、デバイス600は、アスペクト比コントロール1426上の入力1495Dを検出する。 As shown in FIG. 14K, in response to input 1495C, device 600 displays camera setting affordance 624 in accordance with the techniques described above for displaying camera setting affordance 802 in FIGS. 8A-8B above. However, device 600 does not adjust visual boundary 608 in response to input 1495C because input 1495C did not include a stationary contact at location 1404B corresponding to a corner of visual boundary 608 . In some embodiments, camera setting affordance 624 and camera setting affordance 802 are the same. While displaying camera setting affordance 624 , device 600 detects input 1495 D on aspect ratio control 1426 .

図14Lに示すように、入力1495Dを検出したことに応じて、デバイス600は、調整可能なアスペクト比コントロール1470を表示する。調整可能なアスペクト比コントロール1470は、アスペクト比オプション1470A~1470Dを含む。図14Lに示すように、アスペクト比オプション1495Cは、太字化され、かつ選択され、これは、アスペクト比状態インジケータ1420によって示される状態と一致する。調整可能なアスペクト比コントロール1470を表示している間に、デバイス600は、アスペクト比オプション1470B上の入力1495Eを検出する。 In response to detecting input 1495D, device 600 displays adjustable aspect ratio control 1470, as shown in FIG. 14L. Adjustable aspect ratio controls 1470 include aspect ratio options 1470A-1470D. As shown in FIG. 14L, aspect ratio option 1495C is bolded and selected, which matches the state indicated by aspect ratio state indicator 1420. FIG. While displaying adjustable aspect ratio control 1470, device 600 detects input 1495E on aspect ratio option 1470B.

図14Mに示すように、入力1495Eを検出したことに応じて、デバイス600は、視覚境界部1408及び視覚部分1410を16×9のアスペクト比から4×3のアスペクト比に更新する。図14Mでは、デバイス600は、入力1495Fを検出し、この入力は、ライブプレビュー630における下向きスワイプである。 As shown in FIG. 14M, in response to detecting input 1495E, device 600 updates visual border 1408 and visual portion 1410 from a 16×9 aspect ratio to a 4×3 aspect ratio. 14M, device 600 detects input 1495F, which is a downward swipe on live preview 630. In FIG.

14Nに示すように、入力1495Fを検出したことに応じて、デバイス600は、図8Q~図8Rにおいて上述された技術に従って、カメラ設定アフォーダンス624を表示することを停止する。図14Nでは、デバイス600は、入力1495Gを検出し、この入力は、視覚境界部608の右上の角に対応する既定の入力位置1410Aでのタップジェスチャである。 As shown at 14N, in response to detecting input 1495F, device 600 stops displaying camera settings affordance 624 in accordance with the techniques described above in FIGS. 8Q-8R. 14N, device 600 detects input 1495G, which is a tap gesture at default input location 1410A corresponding to the upper right corner of visual boundary 608. In FIG.

図14Oに示すように、入力1495Gを検出したことに応じて、デバイス600は、入力1495Gが所定の期間にわたって既定の入力位置1410Aで維持されなかったと判定する。入力1495Gが視覚境界部を調整する条件を満たさなかったため、デバイス600は、入力1495Gに応じて、視覚境界部608を調整しない。入力1495Gに応じて、デバイス600は、ライブプレビュー630を更新し、タップ入力1495Gの位置に基づいて、焦点及び露出設定を調整することにより画像キャプチャ設定を調整する。図14Oに示すように、視覚部分1404は、更新された焦点及び露出設定により、よりぼけて、かつ焦点から外れて見える。 As shown in FIG. 14O, in response to detecting input 1495G, device 600 determines that input 1495G was not maintained at default input position 1410A for a predetermined period of time. Device 600 does not adjust visual boundary 608 in response to input 1495G because input 1495G did not meet the conditions for adjusting visual boundary. In response to input 1495G, device 600 updates live preview 630 and adjusts image capture settings by adjusting focus and exposure settings based on the position of tap input 1495G. As shown in FIG. 14O, visual portion 1404 appears more blurred and out of focus due to the updated focus and exposure settings.

図14Pでは、デバイス600は、ライブプレビュー630内の位置(例えば、視覚境界部608の角1410A~1410Dのうちの1つではない位置)上の全体入力1495Hの入力部分1495H1を検出する。全体入力1495Hは、第1の接触、続いてリフトオフ、及び次いで第2の接触を含む。入力部分1495H1は、所定の期間よりも長く維持される(例えば、図14Bの入力部分1495A1と少なくとも同じ期間にわたって維持される)静止接触(例えば、全体入力1495Hの第1の接触)である。 In FIG. 14P, device 600 detects input portion 1495H1 of overall input 1495H on a location within live preview 630 (eg, a location that is not one of corners 1410A-1410D of visual boundary 608). Overall input 1495H includes a first contact, followed by liftoff, and then a second contact. Input portion 1495H1 is a stationary contact (eg, the first touch of overall input 1495H) that is maintained for longer than a predetermined period (eg, maintained for at least as long as input portion 1495A1 of FIG. 14B).

図14Qに示すように、入力部分1495H1を検出したことに応じて、デバイス600は、ライブプレビューを更新し、入力部分1495H1の位置での光値に基づいてキャプチャ設定を更新する、露出ロック機能をアクティブ化する。デバイス600はまた、露出設定マニピュレータ1428表示する。 As shown in FIG. 14Q, in response to detecting input portion 1495H1, device 600 activates an exposure lock feature that updates the live preview and capture settings based on the light values at the position of input portion 1495H1. Activate. Device 600 also displays exposure setting manipulator 1428 .

図14Rでは、デバイス600は、全体入力1495Hの入力部分1495H2(例えば、全体入力1495Hの第2の接触)を検出し、この入力は、全体入力1495Hの第2の接触で実行されるドラッグの移動である。図14Sに示すように、デバイス600は、入力部分1495H2の特性(例えば、大きさ及び/又は方向)に基づいて、露出設定マニピュレータ1428を新しい値に更新する。 In FIG. 14R, device 600 detects input portion 1495H2 of global input 1495H (e.g., the second contact of global input 1495H), which is the drag movement performed on the second contact of global input 1495H. is. As shown in FIG. 14S, device 600 updates exposure setting manipulator 1428 to new values based on the properties (eg, magnitude and/or orientation) of input portion 1495H2.

図14Tに示すように、デバイス600は、露出設定マニピュレータ1428の表示を維持する。デバイス600はまた、入力1495Iを検出し、この入力は、既定の入力位置1410Aから開始する水平スワイプであり、この入力位置は、視覚境界部608の右上の角である。 Device 600 maintains the display of exposure setting manipulator 1428, as shown in FIG. 14T. Device 600 also detects input 1495I, which is a horizontal swipe starting from default input location 1410A, which is the upper right corner of visual boundary 608. FIG.

図14Uに示すように、入力1495Iを検出したことに応じて、デバイス600は、図8D~図8Hで論じられた同様の技術に従ってカメラモードを変更する。しかしながら、入力1495Iが視覚境界部608の角部に対応する既定の入力位置1410Aで所定の期間にわたって検出された静止接触構成要素を含まなかったため、デバイス600は、入力1495Iに応じて、視覚境界部608を調整しない。 As shown in FIG. 14U, in response to detecting input 1495I, device 600 changes camera modes according to similar techniques discussed in FIGS. 8D-8H. However, because input 1495I did not include a stationary touch component detected over a predetermined period of time at default input location 1410A corresponding to a corner of visual boundary 608, device 600 responds to input 1495I to detect visual boundary Do not adjust 608.

図15A~図15Cは、いくつかの実施形態による、電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。方法1500は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 15A-15C are flow diagrams illustrating methods for modifying media items using an electronic device, according to some embodiments. The method 1500 includes a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple cameras, quad cameras, etc.) on different sides of the electronic device (e.g., front camera, rear camera)). device (eg, 100, 300, 500, 600). Some acts of method 1500 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法1500は、メディアアイテムを修正するための直感的な仕方を提供する。この方法は、メディアアイテムを修正する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムを修正することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 1500 provides an intuitive way to modify media items. This method reduces the user's cognitive burden in modifying media items, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to modify media items faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1502)。 An electronic device (eg, 600) includes (eg, simultaneously displays) a camera display area (eg, 604) that includes a representation (eg, 630) of the field of view of one or more cameras via a display device. A user interface is displayed (1502).

いくつかの実施形態では、カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように電子デバイス(例えば、600)が構成されているインジケーションを更に含む。いくつかの実施形態では、カメラディスプレイ領域(例えば、604)上の第2の方向(例えば、垂直)の第4の接触の連続的移動を検出することを含む、第4の入力の検出に従って(例えば、第3の所定の閾値を上回る)(例えば、特性を調整するコントロールを表示する要求)(いくつかの実施形態では、特性を調整するコントロールを表示する要求は、カメラモードを切り替える要求のためのコンテンツの連続的な移動によって検出される方向とは異なる(例えば、反対の)方向の連続的な接触の移動によって検出される)、電子デバイス(例えば、600)は、メディアキャプチャ動作に関連付けられた特性(例えば、設定)を調整するコントロール(例えば、スライダ)を表示する。第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従って、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することにより、ユーザが、コントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく追加のコントロールオプションを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに、適切な入力を提供するようにユーザを支援し、ユーザの誤りを低減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用を低減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示している間に、電子デバイス(例えば、600)は、特性(例えば、光量、持続時間など)の第1の値の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する。いくつかの実施形態では、メディアキャプチャ動作(例えば、光量、持続時間など)に関連付けられた特性の第2の値に制御特性(例えば、光量、持続時間など)を調整するための要求(コントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応じて、電子デバイス(例えば、600)は、特性の第1の値の第1のインジケーションの表示を、特性の値の第2のインジケーションの表示に置き換える。いくつかの実施形態では、特性の値は、設定時に表示される。いくつかの実施形態では、特性の値は、表示されない。 In some embodiments, the camera user interface further includes an indication that the electronic device (eg, 600) is configured to operate in the first media capture mode. In some embodiments, following detection of a fourth input, including detecting continuous movement of the fourth contact in a second direction (eg, vertical) over the camera display area (eg, 604) ( (e.g., above a third predetermined threshold) (e.g., a request to display a control for adjusting a property) (in some embodiments, a request to display a control for adjusting a property is for a request to switch camera modes) The electronic device (e.g., 600) is associated with a media capture operation, detected by continuous contact movement in a direction different (e.g., opposite) than the direction detected by continuous movement of the content of the Displays controls (eg, sliders) that adjust certain properties (eg, settings). By displaying controls that adjust characteristics associated with the media capture operation in accordance with detection of a fourth input including detecting continued movement of the fourth contact in a second direction, the user can: Allows quick and easy access to controls. Improve device usability by providing additional control options without cluttering the UI with additional visible controls (e.g. when operating/interacting with the device, appropriate input by making the user-device interface more efficient (by helping users to provide Reduce power usage and improve device battery life. In some embodiments, while displaying controls for adjusting characteristics associated with the media capture operation, the electronic device (eg, 600) first adjusts the characteristics (eg, amount of light, duration, etc.). Display the first indication of a value (eg, numeric value, slider knob (eg, bar) on a slider track). In some embodiments, a request to adjust a control characteristic (e.g., light intensity, duration, etc.) to a second value of the characteristic associated with the media capture operation (e.g., light intensity, duration, etc.) slider control to an indication (e.g., value) on the adjustable control), the electronic device (e.g., 600) displays a first indication of a first value of the property. the indication of the property's value with the indication of the second indication of the property's value. In some embodiments, the property's value is displayed during configuration. In some embodiments, the property's value is not displayed.

メディアをキャプチャする要求を受信したことに応じて(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応じて)、第1のアスペクト比(例えば、1400)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、1つ以上のカメラの視野の表現上のそれぞれの位置(例えば、カメラディスプレイ領域の角部に対応する位置)に第1の接触を含む第1の入力(例えば、タッチアンドホールド)を検出する(1504)。 In response to receiving a request to capture media (e.g., in response to activation of a physical camera shutter button or activation of a virtual camera shutter button), capture media at a first aspect ratio (e.g., 1400). While the electronic device (e.g., 600) is configured as such, the electronic device is positioned at respective positions (e.g., positions corresponding to corners of the camera display area) on the representation of the field of view of one or more cameras. A first input (eg, touch and hold) is detected 1504, including a first touch.

第1の入力を検出したことに応じて(1506)、1組のアスペクト比変化基準が満たされているとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応じて)、第1のアスペクト比とは異なる第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイスを構成する(1508)。1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応じてキャプチャされるメディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分(例えば、角部)に対応する第1の位置で第1の接触を維持し、続いて、第1の位置とは異なる第2の位置への第1の接触の移動を検出することを第1の入力が含むときに満たされる基準を含む(1510)。メディアをキャプチャする要求に応じて、1組のアスペクト比変化基準が満たされているとの判定に従って、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting 1506 the first input and upon determining that a set of aspect ratio change criteria are met, the electronic device (eg, 600) responds to a request to capture media ( e.g., in response to activation of a physical camera shutter button or activation of a virtual camera shutter button), the electronic device is configured to capture media at a second aspect ratio (e.g., 1416) that is different from the first aspect ratio. Configure (1508). The set of aspect ratio change criteria is at least the boundary of media captured in response to a request (e.g., activation of a physical camera shutter button or activation of a virtual camera shutter button) to capture media for at least a threshold amount of time. Maintaining a first contact at a first position corresponding to a predetermined portion (e.g., a corner) of a camera display area showing a portion, followed by a first contact to a second position different from the first position. includes (1510) a criterion that is met when the first input includes detecting movement of a contact in . In response to a request to capture media, the electronic device is configured to capture media at a second aspect ratio different from the first aspect ratio upon determining that a set of aspect ratio variation criteria are met. allows the electronic device to perform an action when a set of conditions is met without requiring further user input, thereby enhancing the device's operability and providing a user-device interface (e.g. , by helping the user to provide appropriate input when operating/interacting with the device, and by reducing user error), as well as allowing the user to navigate the device more quickly and efficiently. This reduces device power usage and improves battery life.

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応じて、第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、第1の触知(例えば、触覚)出力を提供する(1512)。第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供することは、第1の接触が少なくとも閾値時間量にわたって第1の位置で維持されているというフィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input makes the first contact at the first location for at least the threshold amount of time. In accordance with the determination to include maintaining, the electronic device (eg, 600) provides a first tactile (eg, haptic) output (1512). Providing the first tactile output in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. Providing feedback to the user that contact has been maintained at the first position for at least a threshold amount of time. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) (by) making the user-device interface more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently .

いくつかの実施形態では、第1の入力の少なくとも第2の部分を検出したことに応じて、第1の入力の第2の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じてキャプチャされるメディアの境界部(例えば、1410)(例えば、ボックス)の視覚インジケーションを表示する(1514)。第1の入力の第2の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、キャプチャされるメディアの境界部の視覚インジケーションを表示することにより、メディアの一部分がキャプチャされるという視覚的フィードバックをユーザに提供する。ユーザに改善された視覚的フィードバックを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting at least the second portion of the first input, the second portion of the first input makes the first contact at the first location for at least the threshold amount of time. In accordance with the determination to include maintaining, the electronic device (eg, 600) displays a visual indication of the bounds (eg, 1410) (eg, box) of the captured media in response to the request to capture the media. (1514). Displaying a visual indication of a boundary of the captured media in accordance with determining that the second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. provides visual feedback to the user that a portion of the media has been captured. Improve device usability by providing users with improved visual feedback (e.g., help users provide appropriate input when operating/interacting with the device, making the user-device interface more efficient (by reducing errors), as well as reducing power usage and extending device battery life by allowing users to use devices more quickly and efficiently. Improve.

いくつかの実施形態では、視覚インジケーション(例えば、1410)が表示されている間に、かつ第1の入力の少なくとも第3の部分を検出したことに応じて、第1の入力の第3の部分が第1の接触の移動を含むとの判定に従って、第1の接触が閾値時間量にわたって第1の位置で維持された後に、第1の接触の移動は第1の大きさ及び第1の方向を有し、電子デバイス(例えば、600)は、第1の大きさ及び第1の方向に基づいて視覚インジケーションの外観を修正する(例えば、視覚インジケーションを調整して、キャプチャされるメディアの境界部への変化を示す)(1516)。 In some embodiments, while the visual indication (eg, 1410) is being displayed and in response to detecting at least a third portion of the first input, a third After the first contact has been maintained at the first position for a threshold amount of time in accordance with a determination that the portion includes movement of the first contact, movement of the first contact has a first magnitude and a first Having a direction, the electronic device (eg, 600) modifies the appearance of the visual indication (eg, adjusts the visual indication to match the captured media) based on the first magnitude and the first direction. ) (1516).

いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応じて、第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーション(例えば、押し戻されている(又は収縮している)境界部のアニメーション)を表示する(1518)。第1の入力の第1の部分が少なくとも閾値時間量にわたって第1の位置で第1の接触を維持することを含むとの判定に従って、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーションを表示することにより、表現の一部分のサイズが縮小され、一方、ユーザが、サイズを迅速かつ容易に低減することもできるという視覚的フィードバックをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、改善された視覚的フィードバック及び追加の制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input makes the first contact at the first location for at least a threshold amount of time. In accordance with the determination to include maintaining, the electronic device (eg, 600) performs an animation (eg, pushed back) that includes reducing the size of a portion of the representation of the field of view of one or more cameras indicated by the visual indication. (animation of the bounding (or shrinking) boundary) is displayed (1518). A representation of the field of view of one or more cameras indicated by the visual indication in accordance with determining that the first portion of the first input includes maintaining the first contact at the first position for at least the threshold amount of time. By displaying an animation that includes reducing the size of a portion of the representation, the size of the portion of the representation is reduced while providing visual feedback to the user that the user can also quickly and easily reduce the size. do. By providing improved visual feedback and additional control options without cluttering the UI with additional displayed controls, the usability of the device is enhanced and the user-device interface (e.g., the device more efficient (by helping the user to provide appropriate input and reducing user error when operating/interacting with the device), as well as allowing the user to use the device more quickly and efficiently This reduces device power usage and improves battery life.

いくつかの実施形態では、視覚インジケーションが表示されている間に、かつ第1の入力の少なくとも第4の部分を検出したことに応じて、第1の入力の第4の部分が第1の接触のリフトオフを含むとの判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを増大する(例えば、第1の境界部ボックスを第1の比率(例えば、拡張率)で拡張する)ことを含むアニメーションを表示する(1520)。 In some embodiments, while the visual indication is displayed and in response to detecting at least the fourth portion of the first input, the fourth portion of the first input Upon determining that contact lift-off is involved, the electronic device (eg, 600) increases the size of the portion of the representation of the field of view of one or more cameras indicated by the visual indication (eg, the first bounding box by a first ratio (eg, expansion factor)) is displayed (1520).

いくつかの実施形態では、1つ以上のカメラの視野の表現の第1の部分は、メディアの境界部の視覚インジケーション(例えば、1410)によって選択されたものとして示され(例えば、境界部(例えば、ボックス)内に取り囲まれ)、1つ以上のカメラの視野の表現の第2の部分は、メディアの境界部の視覚インジケーションによって選択されたものとして示されていない(例えば、境界部(例えば、ボックス)の外側)。第1の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示され、第2の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示されていないことにより、ユーザが、選択されているかされていない表現の部分を迅速かつ容易に視覚的に区別することを可能にする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第2の部分は、第1の部分と視覚的に区別される(例えば、暗色の又は陰影付きの外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。 In some embodiments, a first portion of a representation of the field of view of one or more cameras is indicated as selected by a media boundary visual indication (eg, 1410) (eg, a boundary ( box)), and a second portion of the representation of the field of view of the one or more cameras is not indicated as selected by the media boundary visual indication (e.g., the boundary ( e.g. outside the box)). The first portion being shown as selected by the media border visual indication and the second portion not being shown as being selected by the media border visual indication causes the user to , allows to quickly and easily visually distinguish parts of the representation that are selected or not. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. In some embodiments, the second portion is visually distinct from the first portion (eg, has a darkened or shaded appearance) (eg, a second portion of the field of view of one or more cameras). with a semi-transparent overlay on the part of the ).

いくつかの実施形態では、第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にある移動(例えば、大きさ及び方向)の第1の大きさ及び/又は方向を有する第2の位置への第1の接触の移動に従って、所定のアスペクト比(例えば、4:3、正方形、16:9)でメディアをキャプチャするように電子デバイスを構成することを含む。いくつかの実施形態では、第2のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にない移動(例えば、大きさ及び方向)の第2の大きさ及び/又は方向を有する第2の位置への第1の接触の移動に従って、所定ではなく(例えば、動的アスペクト比)、かつ移動の第2の大きさ及び/又は方向に基づく(例えば、移動の大きさ及び/又は方向に基づく)アスペクト比でメディアをキャプチャするように電子デバイスを構成することを含む。 In some embodiments, configuring the electronic device (e.g., 600) to capture media at a second aspect ratio (e.g., 1416) is a first range of motion (e.g., all at a predetermined aspect ratio). A predetermined aspect ratio according to movement of the first contact to a second position having a first magnitude and/or direction of movement (e.g., magnitude and direction) within a range of vectors corresponding to the ratio (eg, 4:3, square, 16:9) to configure the electronic device to capture media. In some embodiments, configuring the electronic device (e.g., 600) to capture media in a second aspect ratio is a first range of motion (e.g., vector non-predetermined (e.g. dynamic aspect ratio) and configuring the electronic device to capture media at an aspect ratio based on a second magnitude and/or direction of movement (eg, based on magnitude and/or direction of movement).

いくつかの実施形態では、所定のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、1つ以上の触知出力デバイスを介して、第2の触知(例えば、触覚)出力を生成することを含む。所定のアスペクト比でメディアをキャプチャするように電子デバイスを構成するときに、第2の触知出力を生成することにより、アスペクト比設定のフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, configuring the electronic device (e.g., 600) to capture media in a predetermined aspect ratio is performed via a second tactile (e.g., , haptic) to generate output. Generating a second tactile output provides aspect ratio setting feedback to the user when the electronic device is configured to capture media at a given aspect ratio. Providing improved feedback to the user improves the usability of the device (e.g., assists the user in making appropriate inputs when operating/interacting with the device, corrects user error, etc.). reduce power usage and improve device battery life by making the user-device interface more efficient, as well as allowing users to use the device more quickly and efficiently .

いくつかの実施形態では、第1の入力を検出する前に、電子デバイス(例えば、600)は、第1のカメラモードを使用してメディアをキャプチャするように構成される。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、電子デバイス(例えば、600)は、デバイスが第1のカメラモードに構成されているというインジケーションを表示する。いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力が閾値時間量にわたって第1の位置で第1の接触を維持することを含まないとの判定、及び第1の入力が第1の移動閾値を上回る第1の接触の移動を含む(例えば、第1の入力は、初期休止なしで表示デバイスの一部分を横切るスワイプである)との判定に従って、第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、第2のカメラモードにある間、第1のアスペクト比を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、第2のカメラモードを使用するように電子デバイスを構成することは、デバイスが第2のカメラモードに構成されているというインジケーションを表示することを含む。 In some embodiments, prior to detecting the first input, the electronic device (eg, 600) is configured to capture media using a first camera mode. In some embodiments, each camera mode (e.g., video, photo/still, portrait, slow motion, panorama mode) can be configured as the camera (e.g., camera sensor) captures media. Multiple settings (e.g. portrait About camera mode: studio lighting setting, outline lighting setting, stage lighting setting). In this way, for example, the camera mode has no effect on how the camera behaves when capturing media, or multiple settings (e.g. multiple values (e.g. inactive, active, auto)). (flash mode with one setting with ). In some embodiments, camera modes allow the user to capture different types of media (e.g., photos or videos) and optimize the settings for each mode to achieve specific characteristics (e.g., shape ( (e.g., square, rectangle), speed (e.g., slow motion, time lapse), audio, video) to capture (e.g., via post-processing) specific types of media corresponding to specific modes. can. For example, if an electronic device (e.g., 600) is configured to operate in still photography mode, one or more cameras of the electronic device, when activated, will set certain settings (e.g., flash settings, 1 one or more cameras of the electronic device when the electronic device is configured to capture media of a first type (e.g., rectangular photographs) with one or more filter settings) and operate in square mode is activated to capture media of a second type (e.g. square photos) with specific settings (e.g. flash settings and one or more filters) and operate in slow motion mode. When the electronic device is configured, one or more cameras of the electronic device are of a third type ( When the electronic device is configured to capture media (e.g., slow motion video) and operate in portrait mode, one or more cameras of the electronic device may be configured with certain settings (e.g., a certain type of Capture media of type 5 (e.g. portrait photography (e.g. photography with blurred background)) with amount of light (e.g. stage light, studio light, contour light), f-number, blur) and when the electronic device is configured to operate in panorama mode, one or more cameras of the electronic device have specific settings (e.g., zoom, amount of field of view to capture while moving) Capture media of a fourth type (e.g. panoramic photos (e.g. wide photos)). Correspondingly varying (e.g., while the electronic device is operating in still photography mode, the representation is rectangular mode, while the electronic device is operating in square mode, the representation is square ).In some embodiments, an electronic device (eg, 600) displays an indication that the device is configured in a first camera mode.In some embodiments, detects a first input. determining that the first input does not include maintaining the first contact at the first position for a threshold amount of time; contact with using a second camera mode different from the first camera mode, according to a determination that it involves haptic movement (e.g., the first input is a swipe across a portion of the display device without an initial pause); Including configuring an electronic device (eg, 600) to capture media. In some embodiments, the electronic device (eg, 600) is configured to capture media using the first aspect ratio while in the second camera mode. In some embodiments, configuring the electronic device to use the second camera mode includes displaying an indication that the device is configured for the second camera mode.

いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力(例えば、境界部ボックスの角部上の短期間のタッチ)が閾値時間量未満にわたって第1の位置で第1の接触を検出する(例えば、焦点を設定する要求を検出する)ことを含むとの判定に従って、電子デバイス(例えば、600)は、第1の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように電子デバイスを構成することを含む、焦点設定を調整する(1522)。第1の入力が閾値時間量未満にわたって第1の位置で第1の接触を検出することを含むとの判定に従って、焦点設定を調整することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting the first input, the first input (e.g., a short duration touch on a corner of the bounding box) is at the first location for less than a threshold amount of time. Upon determining that it includes detecting the first contact (eg, detecting a request to set focus), the electronic device (eg, 600) controls the field of view of one or more cameras corresponding to the first location. Focus settings are adjusted (1522), including configuring the electronic device to capture media with focus settings based on the content at the location within. Adjusting the focus setting according to a determination that the first input includes detecting the first contact at the first location for less than a threshold amount of time reduces the number of inputs required to perform the operation. This enhances the usability of the device and improves the user-device interface (e.g., assists the user in making appropriate inputs when operating/interacting with the device and reduces user error). In addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life.

いくつかの実施形態では、第1の入力を検出したことに応じて、第1の入力(例えば、境界部ボックスの角部ではない表現上のいずれかの位置上の長期間のタッチ)が、メディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応じてキャプチャされるメディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域(例えば、604)の既定の部分(例えば、角部)に対応しない第3の位置(例えば、第1の位置ではない位置)で第2の閾値時間量にわたって第1の接触を維持することを含むとの判定に従って、電子デバイス(例えば、600)は、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイスを構成する(1524)。第1の入力が、メディアをキャプチャする要求に応じてキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって第1の接触を維持することを含むとの判定に従って、第1の露出設定でメディアをキャプチャするように電子デバイスを構成することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting the first input, the first input (e.g., a long-term touch on any location on the representation that is not a corner of the bounding box) A default camera display area (e.g., 604) that indicates at least a portion of the bounds of media to be captured in response to a request to capture media (e.g., activation of a physical camera shutter button or activation of a virtual camera shutter button). comprising maintaining the first contact for a second threshold amount of time at a third location (eg, a location that is not the first location) that does not correspond to a portion (eg, a corner) of the electron A device (eg, 600) electronically captures media with a first exposure setting (eg, auto exposure setting) based on content at a location within the field of view of one or more cameras corresponding to a third location. Configure 1524 the device. The first input indicates at least a portion of the boundary of the media to be captured in response to the request to capture the media, and for a second threshold amount of time at a third location that does not correspond to the predetermined portion of the camera display area. Configuring the electronic device to capture media at the first exposure setting, in accordance with the determination to include maintaining the first contact, reduces the number of inputs required to perform the operation, which enhances the usability of the device and improves the user-device interface (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device) By making the device more efficient and, in addition, allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life.

いくつかの実施形態では、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイス(例えば、600)を構成した後に、電子デバイス(例えば、600)は、第3の位置に対応する1つ以上のカメラの視野内の位置でのコンテンツを、1つ以上のカメラの視野内にもはや存在させない、(例えば、電子デバイスの移動による)1つ以上のカメラの視野の表現の変化を検出する。いくつかの実施形態では、変化を検出したことに応じて、電子デバイス(例えば、600)は、第1の露出設定でメディアをキャプチャするように電子デバイスを構成し続ける。 In some embodiments, the electronic device captures media with a first exposure setting (e.g., auto exposure setting) based on content at a position within the field of view of one or more cameras corresponding to a third position. (e.g., 600), the electronic device (e.g., 600) displays the content at the position within the field of view of the one or more cameras corresponding to the third position into the field of view of the one or more cameras. Detect changes in the representation of the field of view of one or more cameras (eg, due to movement of the electronic device) that no longer exist. In some embodiments, in response to detecting a change, the electronic device (eg, 600) continues to configure the electronic device to capture media at the first exposure setting.

方法1500に関して上述された処理(例えば、図15A~図15C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processing described above with respect to method 1500 (eg, FIGS. 15A-15C) are also applicable in an analogous manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1700, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 1500. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図16A~図16Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図17A~図17Bにおける処理を含む、以下で説明する処理を例示するために使用される。 16A-16Q illustrate exemplary user interfaces for changing zoom levels using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 17A-17B.

図16Aは、デバイス600の長軸が垂直に走る縦向き1602(例えば、垂直)のデバイス600を示す。デバイス600が縦向き1602にある間、デバイスは縦向きカメラインタフェース1680を表示する。縦向きインタフェース1680は、縦向きライブプレビュー1682、ズームトグルアフォーダンス1616、シャッターアフォーダンス1648、及びカメラ切り替えアフォーダンス1650を含む。図16Aにおいて、縦向きライブプレビュー1682は、前面カメラ1608の視野の一部分のライブプレビューである。ライブプレビュー1682は、グレーアウト部分1681及び1683を含まず、これはまた、前面カメラ1608の視野からコンテンツのプレビューを表示する。 FIG. 16A shows the device 600 in portrait orientation 1602 (eg, vertical) with the long axis of the device 600 running vertically. While device 600 is in portrait orientation 1602 , the device displays portrait orientation camera interface 1680 . Portrait interface 1680 includes portrait live preview 1682 , zoom toggle affordance 1616 , shutter affordance 1648 , and camera switching affordance 1650 . In FIG. 16A, vertical live preview 1682 is a live preview of a portion of the front camera 1608 field of view. Live preview 1682 does not include grayed out portions 1681 and 1683 and it also displays a preview of the content from the front camera 1608 view.

図16Aに示すように、縦向きライブプレビュー1682は、デバイス600の前面カメラ1608を使用して、画像(例えば、自撮り)を撮影するための準備をしている人1650Aを示す。特に、縦向きライブプレビュー1682は、縦向きライブプレビュー1682での表示に利用可能な、前面カメラ604の視野(例えば、ライブプレビューはズームインされている)の80%を使用するズームレベル1620Aで表示される。縦向きライブプレビュー1682は、画像の右側で部分的に視認可能な人1650Bと画像の左側で部分的に視認可能な人1650Cとの中央にいる人1650A(例えば、デバイス600のユーザ)を示す。上述の方法で縦向きライブプレビュー1682を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695A(例えば、タップ)を検出する。 As shown in FIG. 16A, portrait live preview 1682 shows person 1650A preparing to take an image (eg, selfie) using front-facing camera 1608 of device 600 . In particular, portrait live preview 1682 is displayed at zoom level 1620 A that uses 80% of front camera 604 field of view (e.g., live preview zoomed in) available for display in portrait live preview 1682 . be. Vertical live preview 1682 shows person 1650A (eg, the user of device 600) in the middle of person 1650B partially visible on the right side of the image and person 1650C partially visible on the left side of the image. While displaying portrait live preview 1682 in the manner described above, device 600 detects input 1695 A (eg, tap) on shutter affordance 1648 .

図16Bに示すように、入力1695Aを検出したことに応じて、デバイス600は、縦向きライブプレビュー1682を表すメディアをキャプチャし、縦向きカメラユーザインタフェース1680内にメディアの表現1630を表示する。 As shown in FIG. 16B, in response to detecting input 1695A, device 600 captures media representing portrait live preview 1682 and displays media representation 1630 within portrait camera user interface 1680 .

更に、図16Bに示すように、縦向きライブプレビュー1682を表示している間に、デバイス600は、デバイス600を、横向き(例えば、デバイスの長軸が水平に走る)に物理的に回転させる時計回り回転入力1695Bを検出する。いくつかの実施形態では、人1650Aは、水平方向の環境をより多くキャプチャするために(例えば、人1650B及び1650Cを視野内に入れるように)デバイス600を時計回りに回転させる。図16Cに示すように、回転入力1695Bを検出したことに応じて、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1680を、横向きカメラインタフェース1690に置き換える。横向きカメラインタフェース1690は、横向き1604にズームレベル1620Bで表示される横向きライブプレビュー1692を含む。 Further, as shown in FIG. 16B, while displaying the portrait live preview 1682, the device 600 is clocked by physically rotating the device 600 to landscape (e.g., the long axis of the device runs horizontally). Detects rotation input 1695B. In some embodiments, person 1650A rotates device 600 clockwise (eg, to bring people 1650B and 1650C into view) to capture more of the horizontal environment. As shown in FIG. 16C, in response to detecting rotational input 1695B, device 600 automatically replaces portrait camera user interface 1680 with landscape camera interface 1690 without additional user input. Landscape camera interface 1690 includes landscape live preview 1692 displayed in landscape orientation 1604 at zoom level 1620B.

ズームレベル1620Bは、デバイス600が前面カメラ1608の視野(「FOV」)の100%を使用して、横向きライブプレビュー1692を表示するという点で、ズームレベル1620Aとは異なる。ズームレベル1620Aの代わりに、ズームレベル1620Bを使用して、横向きライブプレビュー1692を表示することにより、横向きライブプレビュー1692を、よりズームアウトして表示させる。図16Cに示すように、横向きライブプレビュー1692は、人1650A、並びに人1650B及び1650Cの顔全体を示す。したがって、横向きライブプレビュー1692により、ズームレベル1620B(FOVの100%)である間、ユーザは、コンテンツの率がより高い写真(例えば、潜在的な写真)をフレームに収めることができる。横向きライブプレビュー1692はまた、縦向きライブプレビュー1682に示されていなかった、新しい人(人1650D)を示す。いくつかの実施形態では、ユーザは典型的には、デバイスの前カメラを使用して、横向きよりも縦向きで環境をキャプチャすることをより望むため、デバイス600は、デバイスの向きが縦から横に変化するときに、自動的にズームレベル1620A(FOVの80%)とズームレベル1620B(FOVの100%)との間をシフトする。図16Cの横向きライブプレビュー1692を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695B(例えば、タップ)を検出する。図16Dに示すように、入力1695Bを検出したことに応じて、デバイス600は、横向きライブプレビュー1692を表すメディアをキャプチャし、横向きカメラユーザインタフェース1690内にメディアの表現1632を表示する。表現1632は、それが、横向き1604であり、ズームレベル1620B(FOVの100%)と一致するという点で、表現1630とは異なる。 Zoom level 1620B differs from zoom level 1620A in that device 600 uses 100% of the field of view (“FOV”) of front-facing camera 1608 to display landscape live preview 1692 . Displaying landscape live preview 1692 using zoom level 1620B instead of zoom level 1620A causes landscape live preview 1692 to be displayed more zoomed out. As shown in FIG. 16C, sideways live preview 1692 shows the full faces of person 1650A and persons 1650B and 1650C. Thus, landscape live preview 1692 allows the user to frame a higher content rate photo (eg, potential photo) while at zoom level 1620B (100% of FOV). Landscape live preview 1692 also shows a new person (person 1650D) that was not shown in portrait live preview 1682 . In some embodiments, the device 600 can change the orientation of the device from portrait to landscape because users typically prefer to use the device's front camera to capture the environment in portrait orientation rather than landscape orientation. automatically shifts between zoom level 1620A (80% of FOV) and zoom level 1620B (100% of FOV). While displaying landscape live preview 1692 of FIG. 16C , device 600 detects input 1695B (eg, tap) on shutter affordance 1648 . As shown in FIG. 16D, in response to detecting input 1695B, device 600 captures media representing landscape live preview 1692 and displays representation 1632 of the media within landscape camera user interface 1690 . Representation 1632 differs from representation 1630 in that it is in landscape orientation 1604 and coincides with zoom level 1620B (100% of FOV).

デバイス600はまた、様々な手動入力に基づいてズームレベルを変更することも可能である。例えば、ズームレベル1620Bで横向きライブプレビュー1692を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上のデピンチ入力1695D又はタップ入力1695DDを検出する。図16Eに示すように、入力1695D又はタップ入力1695DDを検出したことに応じて、デバイス600は、ズームレベル1620B(FOVの100%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。いくつかの実施形態では、ズームレベル1620B(FOVの100%)である間のデピンチジェスチャにより、デピンチジェスチャの大きさに完全基づいてズームレベルを設定するよりもむしろ、ズームレベル1620A(80%のFOV、所定のズームレベル)でスナップする。しかしながら、横向きライブプレビュー1692のズームレベルを変更するとき、ライブプレビュー1692は、横向き1604のままである。ズームレベルを変更した結果として、横向きライブプレビュー1692は、現在、人1650Bの一部分のみを表示し、人1650Dの表示を停止する。また、ズームレベルが図16Bのズームレベルと同じズームレベルに変更されている間、横向きライブプレビュー1692は、縦向きライブプレビュー1682とは異なる、デバイス600が現在横向き1604にあるため示された画像を示す。ズームレベル1620Aで横向きライブプレビュー1692を表示している間に、デバイス600は、デピンチ入力1695Eを検出する。 Device 600 is also capable of changing zoom levels based on various manual inputs. For example, while displaying landscape live preview 1692 at zoom level 1620B, device 600 detects depinch input 1695D or tap input 1695DD on zoom toggle affordance 1616 . As shown in FIG. 16E, in response to detecting input 1695D or tap input 1695DD, device 600 turns landscape live from zoom level 1620B (100% of FOV) back to zoom level 1620A (80% of FOV). Change the zoom level of the preview 1692. In some embodiments, a depinch gesture while at zoom level 1620B (100% of FOV) causes zoom level 1620A (80% FOV, given zoom level). However, when changing the zoom level of landscape live preview 1692 , live preview 1692 remains landscape 1604 . As a result of changing the zoom level, landscape live preview 1692 now displays only a portion of person 1650B and stops displaying person 1650D. Also, while the zoom level is changed to the same zoom level as the zoom level in FIG. show. While displaying landscape live preview 1692 at zoom level 1620A, device 600 detects de-pinch input 1695E.

図16Fに示すように、入力1695Eを検出したことに応じて、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620C(例えば、FOVの40%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。ここで、横向きライブプレビュー1692は、人1650Aの顔の一部分及び少量の人1650B及び1650Cのみを示す。いくつかの実施形態では、ズームレベル1620A(例えば、FOVの80%)とズームレベル1670(例えば、FOVの40%)との間を切り替えることは、予め定義されておらず、ピンチジェスチャに応じてピンチジェスチャの大きさに基づいて行われる。ズームレベル1620C(FOVの40%)で横向きライブプレビュー1692を表示している間に、デバイス600は、ピンチ入力1695Fを検出する。 As shown in FIG. 16F, in response to detecting input 1695E, device 600 moves landscape live preview 1692 from zoom level 1620A (80% of FOV) back to zoom level 1620C (eg, 40% of FOV). Change the zoom level of the . Here, sideways live preview 1692 shows only a portion of person 1650A's face and small amounts of persons 1650B and 1650C. In some embodiments, switching between zoom level 1620A (e.g., 80% of FOV) and zoom level 1670 (e.g., 40% of FOV) is not pre-defined and can be done in response to a pinch gesture. This is done based on the magnitude of the pinch gesture. While displaying landscape live preview 1692 at zoom level 1620C (40% of FOV), device 600 detects pinch input 1695F.

図16Gに示すように、ピンチ入力1695Fを検出したことに応じて、デバイス600は、ズームレベル1620C(FOVの40%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16Eに関連して上述した。ズームレベル1620Aで横向きライブプレビューを表示している間に、デバイス600は、ピンチ入力1695Gを検出する。 In response to detecting pinch input 1695F, device 600 moves landscape live preview 1692 back from zoom level 1620C (40% of FOV) to zoom level 1620A (80% of FOV), as shown in FIG. 16G. Change the zoom level, which was described above in connection with FIG. 16E. While displaying a landscape live preview at zoom level 1620A, device 600 detects pinch input 1695G.

図16Hに示すように、ピンチ入力1695Gを検出したことに応じて、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620B(FOVの100%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16C~図16Dに関連して上述した。ポートレート横向きライブプレビュー1692を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計回り回転入力1695Hを検出する。 As shown in FIG. 16H, in response to detecting pinch input 1695G, device 600 switches landscape live preview 1692 from zoom level 1620A (80% of FOV) back to zoom level 1620B (100% of FOV). Change the zoom level, which was described above in connection with FIGS. 16C-16D. While displaying portrait landscape live preview 1692 , device 600 detects counterclockwise rotation input 1695 H that rotates device 600 back to portrait orientation 1602 .

図16Iに示すように、回転入力1695Hを検出したことに応じて、デバイス600は、入力を介在することなく自動的に、ズームレベル1620A(FOVの80%)で、縦向き1602で、縦向きライブプレビュー1682を含む縦向きカメラユーザインタフェース1680を表示する。ここで、デバイス600は、ユーザが、追加の入力なしで自動的に、ズームレベル1620Bでのカメラユーザインタフェース1692をズームレベル1620Aでのカメラユーザインタフェース1680(図16Aに示すように)に戻すように変更できるようにすることも可能である。 As shown in FIG. 16I, in response to detecting rotation input 1695H, device 600 automatically zooms in at zoom level 1620A (80% of FOV) at portrait orientation 1602 without any intervening input. A portrait camera user interface 1680 including a live preview 1682 is displayed. Here, device 600 allows the user to automatically revert camera user interface 1692 at zoom level 1620B to camera user interface 1680 (as shown in FIG. 16A) at zoom level 1620A without additional input. It is also possible to make it changeable.

図16Iでは、デバイス600(上述のように)はまた、ポートレートカメラユーザインタフェース1680上にズームトグルアフォーダンス1616を表示する。ズームトグルアフォーダンス1616を使用して、ズームレベル1620A(FOVの80%を使用)とズームレベル1620B(FOVの100%を使用)との間のライブプレビューを変更し、このアフォーダンスは、ユーザにより、ライブプレビューのズームレベルを他のズームレベル(例えば、ズームレベル1620C)に変更することができるピンチ入力(上述のように)とは異なる。1620Bで縦向きライブプレビュー1682を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上の入力1695I(例えば、タップ)を検出する。 In FIG. 16I, device 600 (as described above) also displays zoom toggle affordance 1616 on portrait camera user interface 1680 . A zoom toggle affordance 1616 is used to change the live preview between zoom level 1620A (using 80% of FOV) and zoom level 1620B (using 100% of FOV), and this affordance can be changed by the user to Unlike pinch input (as described above), which can change the zoom level of the preview to another zoom level (eg, zoom level 1620C). While displaying portrait live preview 1682 at 1620B, device 600 detects input 1695I (eg, tap) on zoom toggle affordance 1616 .

図16Jに示すように、入力1695Iを検出したことに応じて、デバイス600は、ズームレベル1620A(FOV視野の80%)からズームレベル1620B(FOVの100%)に縦向きライブプレビュー1682のズームレベルを変更して表示する。ここで、縦向きライブプレビュー1682は、人1650A、並びに人1650B及び1650Cの顔全体を示す。 As shown in FIG. 16J, in response to detecting input 1695I, device 600 moves from zoom level 1620A (80% of FOV field of view) to zoom level 1620B (100% of FOV) for vertical live preview 1682. to change and display. Here, vertical live preview 1682 shows the full faces of person 1650A and persons 1650B and 1650C.

図16J~図16Nは、デバイス600が、回転入力を検出するときにカメラユーザインタフェースのズームレベルを自動的に変更しないシナリオを示す。図16Jに戻ると、デバイス600は、カメラ切り替えアフォーダンス上の入力1695Jを検出する。 Figures 16J-16N illustrate scenarios in which the device 600 does not automatically change the zoom level of the camera user interface when detecting rotational input. Returning to FIG. 16J, device 600 detects input 1695J on camera switching affordance.

図16Kに示すように、入力1695Jを検出したことに応じて、デバイス600は、1つ以上のカメラの視野の少なくとも一部分を示す縦向きライブプレビュー1684を含む縦向きカメラインタフェース1680を表示する。縦向きライブプレビュー1684は、ズームレベル1620Dで表示される。加えて、デバイス600は、前面カメラ1608を使用してメディアをキャプチャするような構成から、1つ以上のカメラを使用してメディアをキャプチャするような構成へと切り替えた。ライブプレビュー1684を表示している間に、デバイス600は、デバイス600の時計回り回転入力1695Kを検出し、縦向きから横向きにデバイスを変更する。 As shown in FIG. 16K, in response to detecting input 1695J, device 600 displays portrait camera interface 1680 including portrait live preview 1684 showing at least a portion of the field of view of one or more cameras. Vertical live preview 1684 is displayed at zoom level 1620D. Additionally, the device 600 has switched from capturing media using the front-facing camera 1608 to capturing media using one or more cameras. While displaying live preview 1684, device 600 detects clockwise rotation input 1695K of device 600 and changes the device from portrait orientation to landscape orientation.

図16Lに示すように、回転入力1695Kを検出したことに応じて、デバイス600は、横向きカメラインタフェース1690を表示する。横向きカメラインタフェースカメラインタフェース1690は、横向き1604で1つ以上のカメラの視野を示す、横向きライブプレビュー1694を含む。デバイス600は、図16B~図16Cに見られるように、ズームレベルを自動的に調整しないため、横向きライブプレビュー1694は、デバイス600が背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするように構成されているときに、自動ズーム基準が満たされていないため、ズームレベル1620Dで表示されたままである。横向きライブプレビュー1694を表示している間に、デバイス600は、ビデオキャプチャモードアフォーダンスに対応するライブプレビュー1684上の入力1695Lを検出する。 In response to detecting rotational input 1695K, device 600 displays sideways camera interface 1690, as shown in FIG. 16L. Sideways Camera Interface Camera interface 1690 includes a sideways live preview 1694 that shows the view of one or more cameras in sideways 1604 . Since the device 600 does not automatically adjust the zoom level as seen in FIGS. 16B-16C, the landscape live preview 1694 shows that the device 600 is on the opposite side of the device with respect to the rear camera (eg, the front camera 1608). (some camera) is configured to capture media, it remains displayed at zoom level 1620D because the auto-zoom criteria have not been met. While displaying landscape live preview 1694, device 600 detects input 1695L on live preview 1684 corresponding to a video capture mode affordance.

図16Mに示すように、入力1695Lを検出したことに応じて、デバイス600は、ビデオキャプチャモードを開始する。ビデオキャプチャモードにおいて、デバイス600は、ズームレベル1620Eで横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)の視野を示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691を表示している間に、デバイス600は、カメラ切り替えアフォーダンス1616上の入力1695Mを検出する。 As shown in Figure 16M, in response to detecting input 1695L, device 600 begins a video capture mode. In video capture mode, device 600 displays landscape camera interface 1691 at zoom level 1620E. The landscape camera interface 1691 includes a landscape live preview 1697 that shows the view of the rear camera (eg, the camera on the opposite side of the device relative to the front camera 1608). While displaying landscape camera interface 1691 , device 600 detects input 1695 M on camera switching affordance 1616 .

図16Nに示すように、入力1695Mを検出したことに応じて、デバイス600は、横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、横向き1604にFOVを示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691及びライブプレビュー1697は、ズームレベル1620Eで横向き1604のままである。加えて、デバイス600は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするような構成から、前面カメラ1608へと切り替え、ビデオキャプチャモードのままである。カメラインタフェース1691を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計回り回転入力1695Nを検出する。 In response to detecting input 1695M, device 600 displays sideways camera interface 1691, as shown in FIG. 16N. The landscape camera interface 1691 includes a landscape live preview 1697 showing the FOV in landscape 1604 . Landscape camera interface 1691 and live preview 1697 remain in landscape orientation 1604 at zoom level 1620E. Additionally, the device 600 can switch from a configuration that captures media using a rear camera (e.g., the camera on the opposite side of the device relative to the front camera 1608) to the front camera 1608 and into video capture mode. remain. While displaying camera interface 1691 , device 600 detects counterclockwise rotation input 1695 N that rotates device 600 back to portrait orientation 1602 .

図16Oに示すように、回転入力1695Nを受信したことに応じて、デバイス600は、縦向きカメラインタフェース1681を表示する。縦向きインタフェース1681は、デバイス600がビデオモードでメディアをキャプチャするように構成されるときに、自動ズーム基準が満たされていないため、ズームレベル1620Eで縦向き1602に前面カメラ1608の視野の少なくとも一部分を示す、ライブプレビュー1687を含む。更に、図16Oに示すように、デバイス600は、参加アフォーダンス1642を含む、ライブ通信セッションに参加するための通知1640を表示する。通知1640を表示している間に、デバイス600は、通知アフォーダンス1642上の入力(例えば、タップ)1695Oを検出する。 In response to receiving rotation input 1695N, device 600 displays portrait orientation camera interface 1681, as shown in FIG. 16O. Portrait orientation interface 1681 displays at least a portion of the field of view of front-facing camera 1608 in portrait orientation 1602 at zoom level 1620E because the auto-zoom criteria are not met when device 600 is configured to capture media in video mode. includes a live preview 1687 showing Further, as shown in FIG. 16O, the device 600 displays a notification 1640 to join the live communication session, including a join affordance 1642. FIG. While displaying notification 1640 , device 600 detects input (eg, tap) 1695 O on notification affordance 1642 .

図16Pに示すように、入力1695Oを検出したことに応じて、デバイス600は、ライブ通信セッションに参加する。いくつかの実施形態では、ライブ通信セッションに参加することによって、デバイス600は、ビデオキャプチャモードからライブ通信セッションモードへと切り替える。ライブ通信セッションにある間、デバイス600は、ズームレベル1620A(FOVの80%)で縦向きライブプレビュー1689を表示することを含む、縦向き1602で縦向きカメラインタフェース1688を表示する。カメラインタフェース1688を表示している間に、デバイス600は、デバイス600を、横向き1604になるように回転させる、時計回り回転入力1695Pを検出する。 As shown in FIG. 16P, in response to detecting input 1695O, device 600 participates in a live communication session. In some embodiments, participating in a live communication session causes device 600 to switch from video capture mode to live communication session mode. While in a live communication session, device 600 displays portrait camera interface 1688 in portrait orientation 1602, including displaying portrait live preview 1689 at zoom level 1620A (80% of FOV). While displaying camera interface 1688 , device 600 detects clockwise rotation input 1695 P that rotates device 600 to landscape orientation 1604 .

図16Qに示すように、回転入力1695Pを検出したことに応じて、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1688を、横向きカメラインタフェース1698に置き換える。横向きカメラインタフェース1698は、(例えば、ビデオキャプチャモードにあることとは対照的に)デバイス600がライブ通信セッションでライブビデオを送信しているときに、1組の自動ズーム基準が満たされるため、ズームレベル1620Bで(例えば、FOVの100%で)表示される横向きライブプレビュー1699を含む。 As shown in FIG. 16Q, in response to detecting rotational input 1695P, device 600 automatically replaces portrait camera user interface 1688 with landscape camera interface 1698 without additional user input. Landscape camera interface 1698 zooms because a set of auto-zoom criteria are met when device 600 is transmitting live video in a live communication session (e.g., as opposed to being in video capture mode). Includes a landscape live preview 1699 displayed at level 1620B (eg, at 100% FOV).

図17A~図17Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法1700は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、1608、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えたデバイス(例えば、100、300、500、600)で実行される。方法1700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 17A-17B are flow diagrams illustrating methods for changing zoom levels using an electronic device, according to some embodiments. The method 1700 includes a display device (e.g., touch-sensitive display) and one or more cameras (e.g., 1608) on different sides of the electronic device (e.g., front camera, rear camera) (e.g., dual camera, triple camera, quad camera). etc.)) (eg 100, 300, 500, 600). Some acts of method 1700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法1700は、ズームレベルを変更するための直感的な仕方を提供する。この方法は、ズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 1700 provides an intuitive way to change zoom levels. This method reduces the cognitive burden on the user when changing zoom levels, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to change zoom levels faster and more efficiently saves power and extends the time between battery charges.

電子デバイス(例えば、600)が第1の向きにある(例えば、1602)(例えば、電子が縦向きに向いている(例えば、電子デバイスが垂直である))間に、電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)でメディア(例えば、画像、ビデオ)をキャプチャする第1のカメラユーザインタフェース(例えば、1680)を表示する(1702)。 While the electronic device (eg, 600) is in a first orientation (eg, 1602) (eg, the electrons are vertically oriented (eg, the electronic device is vertical)), the electronic device is the display device. view media (e.g., images, videos) in a first camera orientation (e.g., portrait) at a first zoom level (e.g., zoom ratio (e.g., 1x, 5x, 10x)) via A first camera user interface (eg, 1680) to capture is displayed (1702).

電子デバイス(例えば、600)は、第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイスの向きの変化(例えば、1695B)を検出する(1704)。 An electronic device (eg, 600) detects (1704) a change in orientation (eg, 1695B) of the electronic device from a first orientation (eg, 1602) to a second orientation (eg, 1604).

第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイス(例えば、600)の向きの変化を検出したことに応じて(1706)(例えば、電子デバイスが縦向きから横向きへ向きが変化している(例えば、電子デバイスが水平))、1組の自動ズーム基準が満たされているとの判定に従って(例えば、自動ズーム基準は、電子デバイスが、第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャすると、かつ/又は電子デバイスが、1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあるときに満たされる基準を含む)、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示する(1708)(例えば、電子デバイスの向きが縦向きから横向きへ変化していることを検出する)。ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することは、操作を実行するために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 1706 in response to detecting a change in orientation of the electronic device (eg, 600) from a first orientation (eg, 1602) to a second orientation (eg, 1604) (eg, the electronic device Orientation is changing from orientation to landscape (e.g., the electronic device is horizontal), according to a determination that a set of auto-zoom criteria are met (e.g., the auto-zoom criteria indicate that the electronic device A camera (e.g., front camera) is used to capture the camera's field of view and/or the electronic device is associated with one or more other modes (e.g., portrait mode, photo mode, live communication session) mode), the electronic device (e.g., 600) automatically, without intervening user input, at a second zoom level that is different from the first zoom level, the second display 1708 a second camera user interface (e.g., 1690) that captures media with a camera orientation (e.g., landscape) of 1708 (e.g., indicating that the orientation of the electronic device is changing from portrait to landscape); To detect). Displaying a second camera user interface that automatically captures media with a second camera orientation at a second zoom level that is different than the first zoom level, automatically without intervening user input, is an operation. It reduces the number of inputs required to perform, which enhances the usability of the device and reduces the user-device interface (e.g., the ability for the user to provide appropriate input when operating/interacting with the device). and reduce user error), and by allowing users to use the device more quickly and efficiently, reducing device power usage and increasing battery life. be improved.

いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を(例えば、第1のカメラユーザインタフェース内及び第2のカメラユーザインタフェース内に)表示する(1710)。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、1648)に対応する第1の入力(例えば、アフォーダンス上のタップ)を検出する(1712)。いくつかの実施形態では、第1の入力を検出したことに応じて(1714)、第1のカメラユーザインタフェース(例えば、1680)が表示されている間に第1の入力が検出されたとの判定に従って、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)でメディアをキャプチャする(1716)。いくつかの実施形態では、第1の入力を検出したことに応じて(1714)、第2のカメラユーザインタフェース(例えば、1690)が表示されている間に第1の入力が検出されたとの判定に従って、電子デバイス(例えば、600)は、第2のズームレベル(例えば、1620B)でメディアをキャプチャする(1718)。第1のカメラユーザインタフェースが表示されている間又は第2のカメラユーザインタフェースが表示されている間に、第1の入力が検出されるかどうかの判定に基づいて、異なるズームレベルでメディアをキャプチャすることにより、ズームレベルを手動で構成する必要がないため、ユーザが、メディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (e.g., 600) provides a media capture affordance (e.g., selectable user interface object) (e.g., shutter button) (e.g., within a first camera user interface and a second camera display 1710 in the user interface). In some embodiments, an electronic device (eg, 600) detects (1712) a first input (eg, a tap on an affordance) corresponding to a media capture affordance (eg, 1648). In some embodiments, in response to detecting 1714 the first input, determining that the first input was detected while the first camera user interface (eg, 1680) was being displayed. Accordingly, the electronic device (eg, 600) captures (1716) media at a first zoom level (eg, 1620A). In some embodiments, in response to detecting 1714 the first input, determining that the first input was detected while the second camera user interface (eg, 1690) was being displayed. Accordingly, the electronic device (eg, 600) captures (1718) media at a second zoom level (eg, 1620B). Capturing media at different zoom levels based on determining whether the first input is detected while the first camera user interface is displayed or while the second camera user interface is displayed This allows the user to capture media quickly and easily as there is no need to manually configure the zoom level. By performing actions when a set of conditions are met without the need for further user input, device operability is enhanced and the user-device interface (e.g., manipulating/interacting with the device by helping users make appropriate inputs and reducing user errors), as well as by enabling users to use devices more quickly and efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、第1のカメラユーザインタフェース(例えば、1680)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第1の表現(例えば、1682)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第1の表現は、第1のズームレベル(例えば、1620A)(例えば、カメラの視野の80%、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)で表示される。いくつかの実施形態では、第1の表現(例えば、1682)は、リアルタイムで表示される。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第2の表現(例えば、1692)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第2の表現(例えば、1692)は、第2のズームレベル(例えば、1620B)(例えば、カメラの視野の100%、ズーム比(例えば、1×、5×、10×))で第2のカメラの向き(例えば、横向き)で表示される。いくつかの実施形態では、第2の表現(例えば、1692)は、リアルタイムで表示される。 In some embodiments, displaying a first camera user interface (e.g., 1680) is a camera (e.g., an open observable area that is visible to the camera, a horizontal view of the image at a given distance from the camera lens). (or vertical or diagonal) length) of the field of view (eg, 1682) (eg, a live preview (eg, a live feed of media that may be captured)). In some embodiments, the first representation is a first zoom level (eg, 1620A) (eg, 80% of the camera's field of view, zoom ratio (eg, 1×, 5×, 10×)). 1 camera orientation (eg, portrait orientation). In some embodiments, the first representation (eg, 1682) is displayed in real time. In some embodiments, displaying a second camera user interface (e.g., 1690) is a camera (e.g., an open observable area that is visible to the camera, a horizontal view of the image at a given distance from the camera lens). (or vertical or diagonal) length) of the field of view (eg, 1692) (eg, a live preview (eg, a live feed of media that may be captured)). In some embodiments, the second representation (eg, 1692) is a second zoom level (eg, 1620B) (eg, 100% of the camera's field of view, zoom ratios (eg, 1×, 5×, 10 x)) in the orientation of the second camera (eg, landscape). In some embodiments, the second representation (eg, 1692) is displayed in real time.

いくつかの実施形態では、第1の向き(例えば、1602)は縦向きであり、第1の表現はカメラの視野の一部分であり、第2の向き(例えば、1604)は横向きであり、第2の表現はカメラの視野全体である。いくつかの実施形態では、縦向きでは、カメラインタフェースに表示される表現(例えば、1682)は、カメラの視野のクロッピングされた部分である。いくつかの実施形態では、横向きでは、カメラインタフェースに表示される表現(例えば、1692)は、カメラの視野全体である(例えば、カメラ(例えば、1608)の視野はクロップされない)。 In some embodiments, the first orientation (eg, 1602) is portrait, the first representation is a portion of the field of view of the camera, the second orientation (eg, 1604) is landscape, and the second orientation (eg, 1604) is landscape. The representation of 2 is the entire field of view of the camera. In some embodiments, in portrait orientation, the representation (eg, 1682) displayed in the camera interface is a cropped portion of the camera's field of view. In some embodiments, in landscape orientation, the representation (eg, 1692) displayed in the camera interface is the entire field of view of the camera (eg, the field of view of the camera (eg, 1608) is not cropped).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上のピンチジェスチャ)を受信する(1720)。いくつかの実施形態では、要求は、1組の自動ズーム基準が満たされているときに受信される(例えば、自動ズーム基準は、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャすると、かつ/又は電子デバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあるときに満たされる基準を含む)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第3の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1722)。いくつかの実施形態では、第3の表現は、第1のカメラの向きであり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベル(例えば、1620B)は、第2のズームレベル(例えば、1620A及び1620B)と同じである。いくつかの実施形態では、ユーザは、ピンチアウト(例えば、2つの接触間の距離が増加するように2つの接触がお互いに対して動く)ジェスチャを使用して、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインすることができる。いくつかの実施形態では、ユーザは、ピンチイン(例えば、2本の指が近づく)ジェスチャを使用して、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。 In some embodiments, while displaying a first representation (eg, 1682) of the camera's field of view, the electronic device (eg, 600) shifts the first zoom level (eg, 1620A) to a third A request (eg, a pinch gesture on the camera user interface) to change to a zoom level (eg, 1620B) is received (1720). In some embodiments, the request is received when a set of auto-zoom criteria are met (e.g., the auto-zoom criteria indicate that the electronic device is using the first camera (e.g., the front camera)). capture the field of view of the camera and/or when the electronic device is in one or more other modes (e.g., portrait mode, photo mode, modes associated with a live communication session). ). In some embodiments, in response to receiving a request to change a first zoom level (eg, 1620A) to a third zoom level (eg, 1620B), the electronic device (eg, 600) Replace the display of one representation (eg, 1682) with a third representation (eg, a live preview (eg, a live feed of media that may be captured)) of the camera's field of view (1722). In some embodiments, the third representation is the orientation of the first camera and the third zoom level. In some embodiments, the third zoom level (eg, 1620B) is the same as the second zoom level (eg, 1620A and 1620B). In some embodiments, the user uses a pinch-out (e.g., two contacts move relative to each other such that the distance between the two contacts increases) gesture to enter a first zoom level (e.g., 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg, capturing less of the camera's field of view). In some embodiments, the user uses a pinch-in (eg, two fingers closer together) gesture to move from a first zoom level (eg, 100%) to a third zoom level (eg, a second zoom level). You can zoom out on the representation to a zoom level (eg, 80%) (eg, to capture more of the camera's field of view).

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、第1のカメラユーザインタフェース及び第2のカメラユーザインタフェースに表示する)(1724)。カメラの視野の第1の表現を表示している間に、ズームトグルアフォーダンスを表示することにより、ユーザが、必要であれば、迅速かつ容易に第1の表現のズームレベルを手動で調整することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)の選択に対応する第2の入力(例えば、1695I)(例えば、アフォーダンス上のタップ)を検出する(1726)。いくつかの実施形態では、ズームトグルアフォーダンスの選択は、第1のズームレベルを第4のズームレベルに変更する要求である。いくつかの実施形態では、第2の入力を検出したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1728)。いくつかの実施形態では、第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))は、第1のカメラの向きであり、かつ第4のズームレベルである。いくつかの実施形態では、第4のズームレベルは、第2のズームレベルと同じである。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインする。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。いくつかの実施形態では、選択されると、ズームレベルを変更するためのアフォーダンスは、選択されると、ズームイン状態とズームアウト状態との間をトグルすることができる(例えば、アフォーダンスの表示は、次の選択が表現をズームアウト又はズームインさせることを示すために変化することができる)。 In some embodiments, while displaying the first representation (eg, 1682) of the camera's field of view, the electronic device (eg, 600) displays a zoom toggle affordance (eg, 1616) (eg, selectable user interface objects) are displayed (eg, displayed in the first camera user interface and the second camera user interface) (1724). Displaying the zoom toggle affordance while displaying the first representation of the camera's field of view allows the user to quickly and easily manually adjust the zoom level of the first representation if necessary. enable Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, the electronic device (e.g., 600) provides a second input (e.g., 1695I) (e.g., Taps on affordances) are detected (1726). In some embodiments, selecting the zoom toggle affordance is a request to change the first zoom level to a fourth zoom level. In some embodiments, in response to detecting a second input, the electronic device (eg, 600) converts the display of the first representation (eg, 1682) into a fourth representation of the camera's field of view ( For example, replace 1728 with a live preview (eg, a live feed of media that may be captured). In some embodiments, the fourth representation (eg, a live preview (eg, a live feed of media that may be captured)) is the orientation of the first camera and a fourth zoom level. In some embodiments, the fourth zoom level is the same as the second zoom level. In some embodiments, the user taps an affordance to move from a first zoom level (eg, 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg , which captures less of the camera's field of view). In some embodiments, the user taps an affordance to move from a first zoom level (eg, 100%) to a third zoom level (eg, a second zoom level (eg, 80%)) (eg , capturing more of the camera's field of view). In some embodiments, when selected, the affordance for changing the zoom level can toggle between a zoom-in state and a zoom-out state (e.g., the display of the affordance is can change to indicate that the next selection zooms out or zooms in on the representation).

いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、第1のカメラユーザインタフェース(例えば、1680)及び第2のカメラユーザインタフェース(例えば、1690)内に表示される。いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、選択されると、第2のズームレベルを使用してメディアをキャプチャするように電子デバイスを構成するインジケーションとともに、第1のカメラユーザインタフェース内に最初に表示され、かつ選択されると、第1のズームレベルを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成するインジケーションとともに、第2のカメラユーザインタフェース内に最初に表示される。 In some embodiments, the zoom toggle affordance (eg, 1616) is displayed within the first camera user interface (eg, 1680) and the second camera user interface (eg, 1690). In some embodiments, a zoom toggle affordance (e.g., 1616), when selected, along with an indication that configures the electronic device to capture media using a second zoom level, is displayed on the first camera. A second camera user interface, along with an indication that, when initially displayed within the user interface and selected, configures the electronic device (e.g., 600) to capture media using the first zoom level. first appears in

いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上のピンチジェスチャ(例えば、1695D~1695I))を受信する。いくつかの実施形態では、要求は、電子デバイス(例えば、600)が第1のモードで動作しているときに受信される(例えば、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとの判定、及び/又はデバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)で動作しているとの判定を含むモード)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620C)に変更する要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第5の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える。いくつかの実施形態では、第5の表現は、第1のカメラの向きであり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベルは、第2のズームレベルとは異なる。いくつかの実施形態では、ユーザは、デバイスの向きが変更されると、デバイスが表現を自動的に表示しないズームレベルまで、表現をズームイン及びズームアウトすることができる。 In some embodiments, while displaying a first representation (eg, 1682) of the camera's field of view, the electronic device (eg, 600) shifts the first zoom level (eg, 1620A) to a third (eg, a pinch gesture on the camera user interface (eg, 1695D-1695I)) to change to a zoom level of (eg, 1620B). In some embodiments, the request is received while the electronic device (eg, 600) is operating in a first mode (eg, when the electronic device uses a first camera (eg, front camera)). to capture the field of view of the camera, and/or that the device is operating in one or more other modes (e.g., portrait mode, photo mode, mode associated with a live communication session). mode including judgment). In some embodiments, in response to receiving a request to change a first zoom level (eg, 1620A) to a third zoom level (eg, 1620C), the electronic device (eg, 600) Replace the display of one representation (eg, 1682) with a fifth representation (eg, a live preview (eg, a live feed of media that can be captured)) of the camera's field of view. In some embodiments, the fifth representation is the orientation of the first camera and the third zoom level. In some embodiments, the third zoom level is different than the second zoom level. In some embodiments, the user can zoom in and out on the representation to zoom levels at which the device does not automatically display the representation when the orientation of the device is changed.

いくつかの実施形態では、カメラは、第1のカメラ(例えば、前面カメラ(例えば、第1の側(例えば、電子デバイスの前面ハウジング)に配置されるカメラ)と、第1のカメラとは異なる第2のカメラ(例えば、背面カメラ(例えば、背面側(例えば、電子デバイスの背面ハウジング)に配置される))と、を含む。いくつかの実施形態では、1組の自動ズーム基準は、電子デバイス(例えば、600)が第1のカメラユーザインタフェース(例えば、1680、1690)(例えば、デバイスのユーザによって、カメラの視野の表現が表示されるように設定され、カメラが第1又は第2のカメラに対応する)内に第1のカメラの視野の表現を表示しており、かつ第2のカメラの視野の表現を表示していないときに満たされる基準を含む。いくつかの実施形態では、1組の自動ズーム基準が満たされていない(例えば、デバイスが第1のカメラではなく第2のカメラの視野の表現を表示している)(例えば、図16J~図16K)との判定に従って、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示することをやめる。1組の自動ズーム基準が満たされていないとの判定に従って、ユーザ入力を介在することなく自動的に、第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することをやめることにより、第2のカメラユーザインタフェースへの意図しないアクセスを防止する。1組の条件が満たされなかったときに動作を実行するのを自動的にやめることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera is different from the first camera (e.g., a front camera (e.g., a camera positioned on a first side (e.g., a front housing of the electronic device)) and the first camera. a second camera (e.g., a rear camera (e.g., located on the rear side (e.g., the rear housing of the electronic device)). In some embodiments, the set of auto-zoom criteria is an electronic A device (e.g., 600) is set to display a representation of the camera's field of view by a first camera user interface (e.g., 1680, 1690) (e.g., by a user of the device, and the camera is set to the first or second corresponding to the camera) displaying a representation of the first camera's field of view and not displaying a representation of the second camera's field of view.In some embodiments, Upon determining that a set of auto-zoom criteria are not met (e.g., the device is displaying a representation of the second camera's field of view instead of the first camera) (e.g., FIGS. 16J-16K), The electronic device (e.g., 600) automatically captures media with a second camera orientation (e.g., landscape) at a second zoom level that is different than the first zoom level, without intervening user input. A second camera user interface (e.g., 1690) is automatically displayed, without user input, following a determination that a set of auto-zoom criteria are not met. A level prevents unintended access to the second camera user interface by refraining from displaying the second camera user interface that captures media in the second camera orientation: a set of conditions is met; By automatically ceasing to perform an action when the and reduce user error), as well as reduce device power usage by allowing users to use the device more quickly and efficiently, Battery life is improved.

いくつかの実施形態では、1組の自動ズーム基準は、電子デバイス(例えば、600)がビデオキャプチャ動作モード(例えば、電子デバイスが複数の参加者間のライブ通信セッションにある間にキャプチャされたビデオを含まないビデオをキャプチャする、ビデオをストリーミングする(図16M~図16N))にないときに満たされる基準を含む。 In some embodiments, the set of auto-zoom criteria is based on video captured while the electronic device (eg, 600) is in a video capture mode of operation (eg, video captured while the electronic device is in a live communication session between multiple participants). Capture video that does not include criteria that are met when streaming video (FIGS. 16M-16N).

いくつかの実施形態では、1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャする(例えば、複数の参加者間のライブビデオチャットで通信する(例えば、ライブビデオチャットモード)、ライブ通信セッションを容易にするユーザインタフェースを表示する(例えば、第1のカメラユーザインタフェースがライブ通信セッションインタフェースである)(例えば、図16P~図16Q))ように電子デバイス(例えば、600)が構成されているときに満たされる基準を含む。 In some embodiments, the set of auto-zoom criteria captures video of a live communication session (e.g., communicating in a live video chat between multiple participants (e.g., live video chat mode), live communication session electronic device (eg, 600) is configured to display a user interface (eg, the first camera user interface is a live communication session interface) (eg, FIGS. 16P-16Q) that facilitates Includes criteria that are sometimes met.

いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも高い(例えば、第1のズームレベルは、10×であり、第2のズームレベルは、1×であり、第1のズームレベルは、100%であり、第2のズームレベルは、80%である)。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示している間に、電子デバイス(例えば、600)は、第2の向き(例えば、1604)から第1の向き(例えば、1602)への電子デバイスの向きの変化を検出する。いくつかの実施形態では、第2の向きから第1の向きへの電子デバイス(例えば、600)の向きの変化(例えば、ランドスケープモードからポートレートモードへとデバイスを切り替えること)を検出したことに応じて、電子デバイスは、表示デバイス上に、第1のカメラユーザインタフェース(例えば、1680)を表示する。いくつかの実施形態では、デバイスを横向き(例えば、ランドスケープモード)から縦向き(例えば、ポートレートモード)に切り替えるときに、カメラユーザインタフェースは、ズームインし、デバイスを縦向きから横向きに切り替えるときに、ズームアウトする。 In some embodiments, the first zoom level is higher than the second zoom level (eg, the first zoom level is 10×, the second zoom level is 1×, the second zoom level is One zoom level is 100% and the second zoom level is 80%). In some embodiments, while displaying a second camera user interface (eg, 1690), the electronic device (eg, 600) moves from a second orientation (eg, 1604) to a first orientation (eg, For example, detecting a change in the orientation of the electronic device to 1602). In some embodiments, detecting a change in orientation of the electronic device (eg, 600) from the second orientation to the first orientation (eg, switching the device from landscape mode to portrait mode). In response, the electronic device displays a first camera user interface (eg, 1680) on the display device. In some embodiments, when switching the device from landscape orientation (e.g., landscape mode) to portrait orientation (e.g., portrait mode), the camera user interface zooms in and when switching the device from portrait to landscape orientation, zoom out.

方法1700に関して上述された処理(例えば、図17A~図17B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processing described above with respect to method 1700 (eg, FIGS. 17A-17B) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1900, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 1700. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図18A~図18Xは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図19A~図19B、図20A~図20C、及び図21A~図21Cにおける処理を含む、以下で説明する処理を示すために使用される。 18A-18X illustrate exemplary user interfaces for managing media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 19A-19B, 20A-20C, and 21A-21C.

具体的には、図18A~図18Xは、異なるレベルの可視光を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクス)を下回る光量を有する環境は、低光環境と呼ばれる。低光閾値を上回る光量を有する環境は、通常環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定することができる。以下の説明は、デバイス600が低光環境内で動作しているか、又はその外で動作しているかどうかに基づいて、異なるユーザインタフェースを提供することの相互作用を示す。 Specifically, FIGS. 18A-18X show device 600 operating in several environments with different levels of visible light. Environments with light levels below the low light threshold (eg, 20 lux) are referred to as low light environments. Environments with light levels above the low light threshold are commonly referred to as environments. In the examples below, device 600 detects, via one or more cameras, whether there is a change in the amount of light in an environment (eg, the field of view (FOV) of one or more cameras), and device 600 can determine whether the is operating in a low light environment or a normal environment. The following discussion illustrates the interaction of providing different user interfaces based on whether the device 600 is operating within or outside of a low light environment.

図18Aに示すように、デバイス600は、カメラディスプレイ領域604、コントロール領域606、及びインジケータ領域602を含む、カメラユーザインタフェースを表示する。ライブプレビュー630は、FOVの表現である。 As shown in FIG. 18A, device 600 displays a camera user interface, including camera display area 604, control area 606, and indicator area 602. In FIG. Live preview 630 is a representation of the FOV.

ライブプレビュー630は、明るく照らされた環境において写真を撮影するためにポーズをとる人を示す。したがって、FOV内の光量は、低光閾値を上回り、デバイス600は、低光環境で動作していない。デバイス600が低光環境で動作していないため、デバイス600は、FOV内のデータを連続的にキャプチャし、標準フレームレートに基づいてライブプレビュー630を更新する。 A live preview 630 shows a person posing for a photograph in a brightly lit environment. Therefore, the amount of light within the FOV is above the low light threshold and device 600 is not operating in a low light environment. Since device 600 is not operating in a low light environment, device 600 continuously captures data within the FOV and updates live preview 630 based on standard frame rates.

図18Bに示すように、デバイス600は、低光環境において写真を撮影するためにポーズをとる人を示すライブプレビュー630を表示し、この低光環境は、ライブプレビュー630が視覚的に暗い画像を表示することによって明らかである。デバイス600が低光環境で動作しているため、デバイス600は、低光モード状態インジケータ602c及びフラッシュ状態インジケータ602aを表示する。低光モード状態インジケータ602cは、低光モードが非アクティブである(例えば、低光モードで動作するようにデバイス600が構成されていない)ことを示し、フラッシュ状態インジケータ602aは、フラッシュ動作がアクティブである(例えば、画像をキャプチャするときにフラッシュ動作を実行するようにデバイス600が構成されている)ことを示す。いくつかの実施形態では、フラッシュ状態インジケータ602aは、デバイス600が低光環境で動作していない場合であっても、コントロール領域606内に出現することができる。図18Bでは、デバイス600は、低光モード状態インジケータ602c上の入力1895Aを検出する。 As shown in FIG. 18B, the device 600 displays a live preview 630 showing a person posing for a photograph in a low light environment where the live preview 630 produces a visually dark image. It is clear by displaying Since device 600 is operating in a low light environment, device 600 displays low light mode status indicator 602c and flash status indicator 602a. Low light mode status indicator 602c indicates that low light mode is inactive (eg, device 600 is not configured to operate in low light mode), and flash status indicator 602a indicates that flash operation is active. (eg, device 600 is configured to perform a flash operation when capturing an image). In some embodiments, flash status indicator 602a can appear within control area 606 even when device 600 is not operating in a low light environment. In FIG. 18B, device 600 detects input 1895A on low light mode status indicator 602c.

図18Cに示すように、入力1895Aに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュモード状態インジケータ602aを更新して、フラッシュ動作が非アクティブであることを示す。本実施形態では、より暗い環境においてメディアをキャプチャするときに、光モード及びフラッシュ動作が両方とも有用である間、低光モードは、フラッシュ動作と互いに排他的である。更には、入力1895Aに応じて、デバイス600は、低光モードでメディアをキャプチャするキャプチャ持続時間を設定するための調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804上のインジケーション1818は、低光モードが特定のキャプチャ持続時間に設定されていることを示し、調整可能な低光モードコントロール1804上の各ティックマークは、異なるキャプチャ持続時間を表す。 As shown in FIG. 18C, in response to input 1895A, device 600 updates low-light mode status indicator 602c to indicate that low-light mode is active and flash mode status indicator 602a to indicate flashing. Indicates that the action is inactive. In this embodiment, while light mode and flash operation are both useful when capturing media in darker environments, low light mode is mutually exclusive with flash operation. Additionally, in response to input 1895A, device 600 displays adjustable low light mode control 1804 for setting the capture duration for capturing media in low light mode. An indication 1818 on the adjustable low light mode control 1804 indicates that the low light mode is set for a particular capture duration, with each tick mark on the adjustable low light mode control 1804 indicating a different capture duration. Represents duration.

特に、ライブプレビュー630は、図18Bのものよりも図18Cで視覚的に明るい。これは、低光モードがアクティブであるとき、デバイス600が、より低いフレームレート(例えば、より長い露出時間に対応する)を使用して、そのカメラのうちの1つ以上を動作させるためである。低光環境における標準フレームレート(例えば、より高いフレームレート)を使用すると、各フレームに対する露出時間が短いため、(図18Bに示すように)より暗い画像をキャプチャする。したがって、デバイス600が低光モードで動作しているとき(18Cに示すように)、デバイス600は、標準フレームレートからフレームレートを低下させる。 Notably, live preview 630 is visually brighter in FIG. 18C than in FIG. 18B. This is because when low light mode is active, device 600 operates one or more of its cameras using a lower frame rate (e.g., corresponding to longer exposure times). . Using a standard frame rate (eg, a higher frame rate) in a low light environment will capture a darker image (as shown in FIG. 18B) due to the shorter exposure time for each frame. Therefore, when device 600 is operating in low light mode (as shown at 18C), device 600 reduces the frame rate from the standard frame rate.

図18Cにおいて、デバイス600は、実質的に静止状態に保持されており、FOV内の対象は、同様に実質的に静止している。いくつかの実施形態では、FOV内のコンテンツが閾値速さを上回って動いている場合(例えば、デバイス600の移動及び/又はFOV内の対象の移動に起因して)、デバイス600は、コンテンツがFOV内で動くと、低いフレームレートでは画像がぼやける可能性があるため、フレームレートを低下させることをやめるか、移動が検出されない場合よりもフレームレートを下げる度合いをより低くする。デバイス600は、環境内の低光量によるフレームレートの減少と、環境内で検出された移動によるフレームレートの増加との間のオプションをバランスするように構成することができる。 In FIG. 18C, the device 600 is held substantially stationary and the subject within the FOV is substantially stationary as well. In some embodiments, if content within the FOV is moving above a threshold speed (e.g., due to movement of device 600 and/or movement of objects within the FOV), device 600 may indicate that the content is Movement within the FOV can blur the image at low frame rates, so either stop reducing the frame rate, or reduce the frame rate less than if no movement is detected. The device 600 can be configured to balance options between frame rate reduction due to low light levels in the environment and frame rate increases due to detected movement in the environment.

図18Dに示すように、入力1895Bを検出したことに応じて、デバイス600は、低光モードを使用してメディアをキャプチャすることを開始した。メディアのキャプチャを開始すると、ライブプレビュー630は、表示を停止される。具体的には、ライブプレビュー630は、暗色化して黒くなる。更には、デバイス600はまた、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、触知応答1820Aを生成する。停止アフォーダンス1806は、停止アフォーダンス1806上の入力によって低光モードキャプチャを停止することができることを示す。更に入力1895Bを検出したことに応じて、デバイス600はまた、インジケーション1818の移動をキャプチャ持続時間がゼロに向かって開始する(例えば、1秒からゼロまでのカウントダウン)。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、入力1895Bを検出したことに応じて、色を変更する(例えば、白から赤)。 In response to detecting input 1895B, device 600 began capturing media using low light mode, as shown in FIG. 18D. When media capture begins, the live preview 630 stops displaying. Specifically, the live preview 630 darkens to black. Additionally, device 600 also replaces the display of shutter affordance 610 with stop affordance 1806 to generate tactile response 1820A. Stop affordance 1806 indicates that low light mode capture can be stopped by an input on stop affordance 1806 . Further, in response to detecting input 1895B, device 600 also begins moving indication 1818 toward zero for the capture duration (eg, counting down from 1 second to zero). In some embodiments, adjustable low light mode control 1804 also changes color (eg, from white to red) in response to detecting input 1895B.

図18Eに示すように、メディアをキャプチャしている間に、デバイス600は、調整可能な低光モードコントロール1804上のインジケーション1818を、ほぼゼロであるキャプチャ持続時間に移動させる。図18Eに示すように、ライブプレビュー630は、1秒のキャプチャ持続時間(例えば、18Eで)とほぼゼロのキャプチャ持続時間との間にキャプチャされたメディアの表現とともに表示される。 As shown in FIG. 18E, while capturing media, device 600 moves indication 1818 on adjustable low light mode control 1804 to a capture duration of approximately zero. As shown in FIG. 18E, a live preview 630 is displayed with a representation of the media captured between the one second capture duration (eg, at 18E) and the nearly zero capture duration.

図18Fに示すように、低光モードでのメディアのキャプチャを完了した後、デバイス600は、キャプチャされたメディアの表現1812を表示する。デバイス600は、メディアがキャプチャされた後に、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。低光モード状態インジケータ602cは、低光モードがアクティブであることを示すが、デバイス600は、低光モード状態インジケータ602c上の入力1895Cを検出する。 After completing media capture in low light mode, device 600 displays a representation 1812 of the captured media, as shown in FIG. 18F. Device 600 replaces the display of stop affordance 1806 with shutter affordance 610 after media is captured. Low light mode status indicator 602c indicates that low light mode is active, but device 600 detects input 1895C on low light mode status indicator 602c.

図18Gに示すように、入力1895Cを受信したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示し、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。更に、入力1895Cを検出したことに応じて、デバイス600は、調整可能な低光モードコントロール1804を表示することを停止する。いくつかの実施形態では、デバイス600が低光条件で標準条件まで動作するとき、調整可能な低光モードコントロール1804は、任意のユーザ入力なしに自動的に表示を停止される。 As shown in FIG. 18G, in response to receiving input 1895C, device 600 updates low light mode status indicator 602c to indicate that low light mode is inactive and updates flash status indicator 602a. to indicate that the flash operation is active. Further, in response to detecting input 1895C, device 600 stops displaying adjustable low light mode control 1804. FIG. In some embodiments, the adjustable low light mode control 1804 is automatically turned off without any user input when the device 600 operates in low light conditions to standard conditions.

特に、低光モードが非アクティブであるため、デバイス630は、そのカメラの1つ以上のカメラのフレームレートを増加させ、ライブプレビュー630は、図18Bのように、視覚的により暗くなる。図18Gでは、デバイス600は、デバイス600が追加のカメラコントロールアフォーダンス614に隣接して表示した、低光モードコントロールアフォーダンス614b上の入力1895Dを検出する。 In particular, since the low light mode is inactive, device 630 increases the frame rate of one or more of its cameras and live preview 630 becomes visually darker, as in FIG. 18B. In FIG. 18G, device 600 detects input 1895D on low light mode control affordance 614b, which device 600 displayed adjacent to additional camera control affordance 614. In FIG.

図18Hに示すように、入力1895Dを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュ状態インジケータ602cを更新して、フラッシュ動作が非アクティブであることを示す。デバイス600は、以前の1秒のキャプチャ持続時間に設定されたインジケーション1818とともに、調整可能な低光モードコントロール1804を再表示する。特に、低光モードがアクティブであるため、デバイス600は、そのカメラの1つ以上のカメラのフレームレートを減少させ、ライブプレビュー630を、図18Cのように、視覚的により明るくする。図18Hでは、デバイス600は、インジケーション1818上の入力1895Eを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。 As shown in FIG. 18H, in response to detecting input 1895D, device 600 updates low light mode status indicator 602c to indicate that low light mode is active and updates flash status indicator 602c. to indicate that the flash operation is inactive. Device 600 redisplays adjustable low light mode control 1804 with indication 1818 set to the previous capture duration of 1 second. In particular, with low light mode active, device 600 reduces the frame rate of one or more of its cameras, making live preview 630 visually brighter, as in FIG. 18C. In FIG. 18H, device 600 detects input 1895E on indication 1818 and adjusts adjustable low light mode control 1804 to the new capture duration.

図18Iに示すように、入力1895Eを受信したことに応じて、デバイス600は、1秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かす。1秒の持続時間から2秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を明るくする。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のカメラのフレームレートを減少させる(例えば、更に減少させる)ことにより、及び/又は1つ以上の画像処理技術を適用することにより、より明るいライブプレビュー630を表示する。図18Iでは、デバイス600は、インジケーション1818上の入力1895Fを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。いくつかの実施形態では、入力1895Fは、入力1895Eの第2の部分である(例えば、1895E及び1895Fを含む連続的なドラッグ入力)。 As shown in FIG. 18I, in response to receiving input 1895E, device 600 moves indication 1818 from a capture duration of 1 second to a capture duration of 2 seconds. Device 600 illuminates live preview 630 while moving indication 1818 from a one second duration to a two second capture duration. In some embodiments, device 600 reduces (eg, further reduces) the frame rate of one or more cameras of device 600 and/or applies one or more image processing techniques. , to display a brighter live preview 630 . In FIG. 18I, device 600 detects input 1895F on indication 1818 and adjusts adjustable low light mode control 1804 to the new capture duration. In some embodiments, input 1895F is a second portion of input 1895E (eg, a continuous drag input including 1895E and 1895F).

図18Jに示すように、入力1895Fを検出したことに応じて、デバイス600は、2秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かす。2秒のキャプチャ持続時間から4秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を更に明るくする。図18Jでは、デバイス600は、シャッターアフォーダンス610上の入力1895Gを検出する。図18K~図18Mに示すように、入力1895Gを検出したことに応じて、デバイス600は、図18Kに設定された4秒のキャプチャ持続時間に基づいて、メディアのキャプチャを開始する。図18K~図18Mは、巻き取りアニメーション1814を示す。巻き取りアニメーション814は、急速に進行する前の0秒(18K)で開始し、4秒マーク(18M)に到達する前の2秒マーク(18L)までの低光モードコントロール1804のアニメーションを含み、これは、調整可能な低光モードコントロール1804のキャプチャされた持続時間(例えば、4秒)に等しい。巻き取りアニメーションは、様々な段階で触知出力を生成する。巻き取りアニメーション1814は、低光モードメディアキャプチャの開始に対応する。いくつかの実施形態では、巻き取りアニメーションは、等間隔で図18K~図18Mを表示する滑らかなアニメーションである。いくつかの実施形態では、デバイス600は、巻き取りアニメーション(例えば、触知出力1820B~1820D)とともに触知出力を生成する。いくつかの実施形態では、巻き取りアニメーションは、比較的短い時間(例えば、0.25秒、0.5秒)で行われる。 As shown in FIG. 18J, in response to detecting input 1895F, device 600 moves indication 1818 from a capture duration of 2 seconds to a capture duration of 4 seconds. Device 600 brightens live preview 630 while moving indication 1818 from a capture duration of 2 seconds to a capture duration of 4 seconds. In FIG. 18J, device 600 detects input 1895G on shutter affordance 610. In FIG. As shown in FIGS. 18K-18M, in response to detecting input 1895G, device 600 begins capturing media based on the four second capture duration set in FIG. 18K. 18K-18M show a winding animation 1814. FIG. The winding animation 814 includes an animation of the low light mode control 1804 starting at 0 seconds (18K) before rapidly progressing to the 2 second mark (18L) before reaching the 4 second mark (18M), This is equal to the captured duration of adjustable low light mode control 1804 (eg, 4 seconds). A winding animation produces tactile output at various stages. A winding animation 1814 corresponds to the start of low light mode media capture. In some embodiments, the winding animation is a smooth animation that displays FIGS. 18K-18M at even intervals. In some embodiments, device 600 generates tactile outputs along with winding animations (eg, tactile outputs 1820B-1820D). In some embodiments, the winding animation occurs in a relatively short period of time (eg, 0.25 seconds, 0.5 seconds).

巻き取りアニメーション1814を表示した後、デバイス600は、図18M~図18Qに示すように、巻き出しアニメーション1822を表示する。巻き出しアニメーション1822は、キャプチャ持続時間に基づいて行われ、発生する画像キャプチャと一致する。巻き出し(Wounding down)アニメーションは、様々な段階で触知出力を生成する。図18Mに戻ると、デバイス600は、4秒のキャプチャ持続時間でインジケーション1818を表示する。 After displaying winding animation 1814, device 600 displays winding animation 1822, as shown in FIGS. 18M-18Q. The unrolling animation 1822 is based on the capture duration and matches the image capture that occurs. Wounding down animations produce tactile output at various stages. Returning to FIG. 18M, device 600 displays indication 1818 with a capture duration of 4 seconds.

図18Nに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒までインジケーション1818を動かし、ライブプレビュー630を更新すること及び触知出力を生成することなく、残りのキャプチャ持続時間を示す。 As shown in FIG. 18N, the device 600 moves the indication 1818 from a capture duration of 4 seconds to 3.5 seconds, updating the live preview 630 and remaining capture duration without generating tactile output. indicate the time.

図18Oに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ残り持続時間にインジケーション1818を動かした。デバイス600は、ライブプレビュー630を更新して、3秒のキャプチャ残り持続時間までキャプチャされたカメラデータを表す画像を示す。(例えば、1秒のキャプチャされたカメラデータ)。特に、図18N~図18Oにおいて、デバイス600は、より明るい画像を示すために、ライブプレビュー630を連続的に更新しない。代わりに、デバイス600は、1秒の間隔のキャプチャ持続時間でライブプレビュー630を更新するだけである。ライブプレビュー630を更新することに加えて、デバイス600は、触知出力1820Eを生成する。 As shown in FIG. 18O, device 600 has moved indication 1818 from a capture duration of 3.5 seconds to a capture remaining duration of 3 seconds. Device 600 updates live preview 630 to show an image representing camera data captured up to the remaining capture duration of 3 seconds. (eg, 1 second of captured camera data). In particular, in FIGS. 18N-18O, device 600 does not continuously update live preview 630 to show brighter images. Instead, the device 600 only updates the live preview 630 with capture durations of one second intervals. In addition to updating live preview 630, device 600 produces tactile output 1820E.

図18Pに示すように、デバイス600は、3秒のキャプチャ残り持続時間から2秒のキャプチャ残り持続時間にインジケーション1818を動かし、触知出力1820Fを生成する。更に、18Nを考慮して、ライブプレビュー630は、ここでは視覚的により明るいが、これは、ライブプレビュー630を1秒の間隔で、追加のキャプチャされたカメラデータで更新するためである。いくつかの実施形態では、ライブプレビューは、1秒以外(例えば、0.5秒、2秒)の間隔で更新された。 As shown in FIG. 18P, device 600 moves indication 1818 from a capture remaining duration of 3 seconds to a capture remaining duration of 2 seconds, producing tactile output 1820F. Additionally, considering 18N, the live preview 630 is now visually brighter because the live preview 630 updates at 1 second intervals with additional captured camera data. In some embodiments, the live preview was updated at intervals other than 1 second (eg, 0.5 seconds, 2 seconds).

図18Qに示すように、デバイス600は、2秒のキャプチャ残り持続時間から0のキャプチャ残り持続時間にインジケーション1818を動かす。図18Qにおいて、ライブプレビュー630は、図18Pのものよりも視覚的に明るい。 As shown in FIG. 18Q, the device 600 moves the indication 1818 from a capture remaining duration of 2 seconds to a capture remaining duration of 0. In Figure 18Q, the live preview 630 is visually brighter than that of Figure 18P.

図18Rに示すように、デバイス600は、最大4秒の持続時間にわたってキャプチャを完了し、キャプチャされたメディアの表現1824を表示する。表現1826は、図18O(例えば、1秒のデータ)及び18P(2秒のデータ)のライブプレビューのそれぞれよりも明るく、図18Q(4秒のデータ)のライブプレビューと同等の輝度である。 As shown in FIG. 18R, the device 600 completes the capture for a duration of up to 4 seconds and displays a representation 1824 of the captured media. Representation 1826 is brighter than the live previews of FIGS. 18O (eg, 1 second of data) and 18P (2 seconds of data), respectively, and is equally bright as the live preview of FIG. 18Q (4 seconds of data).

いくつかの実施形態では、デバイス600は、メディアをキャプチャしている間及び設定されたキャプチャ持続時間の完了前に、停止アフォーダンス820上の入力を検出する。このような実施形態では、デバイス600は、そのポイントまでキャプチャされたデータを使用して、メディアを生成及び記憶する。図18Sは、キャプチャが4秒のキャプチャで1秒停止される実施形態の結果を示す。18Sにおいて、停止される前に1秒の間隔でキャプチャされたメディアの表現1824は、4秒の持続時間にわたってキャプチャされた、図18Rの表現1826よりも顕著に暗くなる。 In some embodiments, device 600 detects input on stop affordance 820 while capturing media and before completing the set capture duration. In such embodiments, device 600 uses the data captured to that point to generate and store media. FIG. 18S shows the result of an embodiment where capture is stopped for 1 second with 4 seconds of capture. At 18S, a representation 1824 of the media captured over a 1 second interval before being stopped is noticeably darker than the representation 1826 of FIG. 18R captured over a 4 second duration.

図18Rに戻ると、デバイス600は、調整可能な低光モードコントロール1804上で入力1895Rを検出する。図18Tに示すように、入力1895Rを検出したことに応じて、デバイス600は、4秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かす。インジケーション1818をゼロキャプチャ持続時間まで動かすことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。更には、デバイス600は、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。したがって、低光モードコントロール1804をゼロの持続時間まで設定することは、低光モードをオフにすることと同等である。 Returning to FIG. 18R, device 600 detects input 1895 R on adjustable low light mode control 1804 . As shown in FIG. 18T, in response to detecting input 1895R, device 600 moves indication 1818 from a capture duration of 4 seconds to a capture duration of 0 seconds. In response to moving indication 1818 to the zero capture duration, device 600 updates low light mode status indicator 602c to indicate that low light mode is inactive. Additionally, device 600 updates flash status indicator 602a to indicate that a flash operation is active. Therefore, setting the low light mode control 1804 to zero duration is equivalent to turning off the low light mode.

図18Tでは、デバイス600は、追加のコントロールアフォーダンス614上の入力1895Sを検出する。図18Uに示すように、入力1895Sを検出したことに応じて、デバイス600は、コントロール領域606に低光モードコントロールアフォーダンス614bを表示する。 18T, device 600 detects input 1895S on additional control affordance 614. In FIG. In response to detecting input 1895S, device 600 displays low light mode control affordance 614b in control region 606, as shown in FIG. 18U.

図18V~図18Xは、3つの異なる周囲環境における、フラッシュ状態インジケータ602c1~602c3及び低光モード状態インジケータ602c1~602c3を示す、ユーザインタフェースの様々なセットを示す。図18V~図18Xは、デバイス600A、600B、及び600Cを示し、各々がデバイス100、300、500、又は600の1つ以上の機能を含む。デバイス600Aは、オンに設定された調整可能なフラッシュコントロールを表示し、デバイス600Bは、自動に設定された調整可能なフラッシュコントロール662Bを表示し、デバイス600Bは、オフに設定された調整可能なフラッシュコントロール662Cを表示する。上述のように、図6H~図6Iに関連して、調整可能なフラッシュコントロール662は、デバイス600のフラッシュ設定を設定する。 Figures 18V-18X illustrate various sets of user interfaces showing flash status indicators 602c1-602c3 and low light mode status indicators 602c1-602c3 in three different ambient environments. 18V-18X illustrate devices 600A, 600B, and 600C, each including one or more features of device 100, 300, 500, or 600. FIG. Device 600A displays adjustable flash control set to ON, device 600B displays adjustable flash control 662B set to AUTO, and device 600B displays adjustable flash control set to OFF. Display control 662C. As described above, with reference to FIGS. 6H-6I, adjustable flash control 662 sets the flash settings of device 600 .

図18Vは、インジケータグラフィック1888によって示されるように、FOV内の光量1888が10ルクス~0ルクスである周囲環境を示す。FOV内の光量が10ルクス~0ルクス(例えば、非常に低光モード)であるため、デバイス600は、フラッシュがオフに設定されているときにのみ、アクティブとして低光状態インジケータを表示する。図18Vに示すように、低光インジケータ602c2は、アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a2は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18V shows an ambient environment where the amount of light 1888 within the FOV is between 10 lux and 0 lux, as indicated by indicator graphic 1888 . Since the amount of light within the FOV is between 10 lux and 0 lux (eg, very low light mode), the device 600 actively displays the low light condition indicator only when the flash is set to off. As shown in FIG. 18V, low light indicator 602c2 is the only low light indicator displayed as active, and flash status indicator 602a2 is set to inactive because adjustable flash control 662B is set to off. flash status indicator only.

図18Wは、FOV内の光量1890が20ルクス~10ルクスである環境を示す。FOV光量が20ルクス~10ルクス(例えば、適度に低光)であるため、デバイス600は、フラッシュがオンに設定されているときにのみ、非アクティブとして低光状態インジケータを表示する。図18Wに示すように、低光インジケータ602c1は、非アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a1は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに設定されたフラッシュ状態インジケータのみである。 FIG. 18W shows an environment where the amount of light 1890 within the FOV is between 20 lux and 10 lux. Since the FOV light level is 20 lux to 10 lux (eg, moderately low light), the device 600 displays the low light condition indicator as inactive only when the flash is set to on. As shown in FIG. 18W, low light indicator 602c1 is the only low light indicator displayed as inactive, and flash status indicator 602a1 is set to active because adjustable flash control 662A is set to on. flash status indicator only.

図18Xは、FOV内の光量1892が20ルクスを上回る周囲環境を示す。FOV内の光量が20ルクス(例えば、標準光)を上回るため、低光インジケータは、デバイス600A~600Cのいずれにも表示されない。フラッシュ状態インジケータ602c-2は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに表示される。フラッシュ状態インジケータ602c-3は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに表示される。デバイス600Cは、調整可能なフラッシュコントロール662Cが自動に設定されているため、フラッシュ状態インジケータを表示せず、デバイス600は、フラッシュが10ルクスを上回ると自動的に動作しないと判定した。 FIG. 18X shows an ambient environment where the amount of light 1892 within the FOV is greater than 20 lux. The low light indicator is not displayed on any of the devices 600A-600C because the amount of light within the FOV is above 20 lux (eg, standard light). Flash status indicator 602c-2 is displayed active because adjustable flash control 662A is set to ON. Flash status indicator 602c-3 appears inactive because adjustable flash control 662B is set to off. Device 600C did not display a flash status indicator because adjustable flash control 662C was set to auto, and device 600 determined that flash would not automatically operate above 10 lux.

図19A~図19Bは、いくつかの実施形態による、電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。方法1900は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法1900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 19A-19B are flow diagrams illustrating methods for changing frame rate using an electronic device, according to some embodiments. The method 1900 uses one or more cameras (e.g., dual camera, triple camera) on different sides of the electronic device (e.g., front camera, rear camera) and one or more cameras (e.g., a touch sensitive display). , quad cameras, etc.)). Some acts of method 1900 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法1900は、フレームレートを変更するための直感的な仕方を提供する。この方法は、フレームレートを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にフレームレートを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 1900 provides an intuitive way to change frame rate. This method reduces the user's cognitive burden in changing the frame rate, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to change frame rates faster and more efficiently saves power and extends the time between battery charges.

電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示することを含むメディアキャプチャユーザインタフェースを表示する(1902)。 An electronic device (e.g., 600), via a display device, displays one or more cameras (e.g., an open observable area that is visible to the camera, horizontal (or vertical or diagonal) of the image at a given distance from the camera lens. ) length) of the field of view (eg, 630) (eg, a representation over time, a live preview feed of data from the camera) is displayed (1902).

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーション(例えば、602c)(例えば、低光状態インジケータ)を表示する(1906)ことを含む(1904)。可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することにより、ユーザに、可変フレームレートモード(例えば、18B及び18Cの630)の状態の視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされていないとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションなしで、メディアキャプチャユーザインタフェースを表示すること(1908)を含む(1904)。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、デバイスが低光モードで動作していることを示す(例えば、低光状態インジケータは、デバイスが低光モードで動作しているかどうかの状態(例えば、アクティブ又は非アクティブ)を含む)。 In some embodiments, displaying the media capture user interface includes an indication (e.g., 602c) that the variable frame rate mode is active (e.g., 602c) (e.g., (1904) displaying (1906) a low light condition indicator). By displaying an indication that the variable frame rate mode is active following a determination that the variable frame rate criteria are met, the user is informed of the state of the variable frame rate mode (e.g., 630 of 18B and 18C). Provide visual feedback. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. In some embodiments, displaying the media capture user interface includes displaying the media capture user interface without an indication that the variable frame rate mode is active following the determination that the variable frame rate criteria are not met. including (1904) displaying (1908); In some embodiments, the low light state indicator (eg, 602c) indicates that the device is operating in low light mode (eg, the low light state indicator indicates whether the device is operating in low light mode). whether state (eg, active or inactive).

いくつかの実施形態では、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、表示デバイス上に、第1の輝度で表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、第1のフレームレートよりも低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、表示デバイス上に、(例えば、電子デバイスによって)第1の輝度よりも視覚的に明るい第2の輝度で表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、フレームレートを減少させることにより、ディスプレイ上に表示されている表現の輝度が増加する(例えば、18B及び18Cの630)。 In some embodiments, a representation of one or more cameras' fields of view (e.g., 1802) updated based on changes detected in the one or more cameras' fields of view at the first frame rate is displayed on the display device. Above, it is displayed at the first intensity (eg 630 at 18B and 18C). In some embodiments, the representation of the field of view of the one or more cameras updated based on changes detected in the field of view of the one or more cameras at a second frame rate lower than the first frame rate ( 1802) are displayed on the display device (eg, by an electronic device) at a second luminance that is visually brighter than the first luminance (eg, 630 of 18B and 18C). In some embodiments, decreasing the frame rate increases the brightness of the representation being displayed on the display (eg, 630 at 18B and 18C).

メディアキャプチャユーザインタフェース(例えば、608)を表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラを介して、1つ以上のカメラの視野(例えば、18B及び18Cの630)内の変化(例えば、移動を示す変化)を検出する(1910)。 While displaying a media capture user interface (e.g., 608), the electronic device (e.g., 600), through the one or more cameras, may view one or more camera views (e.g., 630 of 18B and 18C). ) (eg, changes indicative of movement) are detected (1910).

いくつかの実施形態では、検出された変化は、検出された移動(例えば、電子デバイスの移動、視野内のコンテンツの変化率)を含む。いくつかの実施形態では、第2のフレームレートは、検出された移動の量に基づく。いくつかの実施形態では、第2のフレームレートは、移動が増加するにつれて増加する(例えば、18B及び18Cの630)。 In some embodiments, the detected change includes detected movement (eg, movement of the electronic device, rate of change of content within the field of view). In some embodiments, the second frame rate is based on the amount of motion detected. In some embodiments, the second frame rate increases as the movement increases (eg, 630 at 18B and 18C).

1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているとの判定に従って(1912)、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(例えば、移動速さ閾値、移動量閾値など)を満たすとの判定に従って、電子デバイス(例えば、600)は、第1のフレームレートで1つ以上のカメラの視野(例えば、18Cの630)内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1914)。1つ以上のカメラの視野内の検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フレームレート基準は、電子デバイスが動いていると判定されるときに満たされる基準を含む(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)。いくつかの実施形態では、フレームレート基準は、電子デバイス(例えば、600)が動いていないと判定されるときに満たされる基準を含む(例えば、18B及び18Cの630)(例えば、実質的に静止(例えば、デバイスの移動は、所定の閾値(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)以上又は等しい))。 In response to detecting changes in the field of view of one or more cameras, and variable frame rate criteria (e.g., a set of criteria governing whether the representation of the field of view is updated at a variable or static frame rate) is satisfied 1912, the detected change in the field of view of one or more cameras (e.g., one or more cameras incorporated within the housing of the electronic device) is a movement criterion (e.g., electronic device (e.g., 600) is detected within the field of view of one or more cameras (e.g., 630 of 18C) at a first frame rate. One or more camera view representations (eg, 630) are updated 1914 based on the changes. Based on the changes detected within the field of view of the one or more cameras at the first frame rate, one or more By updating the representation of the camera's field of view, the electronic device performs actions when a set of conditions are met without requiring further user input, thereby enhancing the operability of the device, Make the user-device interface more efficient (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device); By allowing the device to be used more quickly and efficiently, the device uses less power and improves battery life. In some embodiments, the frame rate criteria include criteria that are met when the electronic device is determined to be in motion (e.g., the predetermined threshold is positional displacement, speed, velocity, acceleration, or any of these based on any combination). In some embodiments, frame rate criteria include criteria that are met when the electronic device (eg, 600) is determined not to be moving (eg, 630 of 18B and 18C) (eg, substantially stationary (eg, movement of the device is greater than or equal to a predetermined threshold (eg, the predetermined threshold is based on position displacement, speed, velocity, acceleration, or any combination thereof)).

1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているとの判定(1912)に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、電子デバイス(例えば、600)は、第1のフレームレートよりも低い第2のフレームレート(例えば、フレームレート、及び画像データが第1の露出時間よりも長い第2の露出時間を使用してキャプチャされる場所)(例えば、18A及び18Bの630)で1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1916)。1つ以上のカメラの視野内の検出された変化が移動基準を満たさないとの判定に従って、第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting changes in the field of view of one or more cameras, and variable frame rate criteria (e.g., a set of criteria governing whether the representation of the field of view is updated at a variable or static frame rate) is satisfied (1912), the electronic device (e.g., 600) performs the first frame a second frame rate lower than the rate (e.g. frame rate and where the image data is captured using a second exposure time longer than the first exposure time) (e.g. 630 of 18A and 18B) A representation (eg, 630) of the one or more cameras' fields of view is updated 1916 based on changes detected in the one or more cameras' fields of view in . one or more based on changes detected within the field of view of the one or more cameras at the second frame rate, according to a determination that the detected change within the field of view of the one or more cameras does not meet the movement criteria. By updating the representation of the camera's field of view of , the electronic device performs an action when a set of conditions are met (or otherwise not met) without requiring further user input, This enhances the usability of the device and improves the user-device interface (e.g. by helping the user to make appropriate inputs when operating/interacting with the device and reducing user error). ), and in addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life.

いくつかの実施形態では、可変フレームレート基準は、1つ以上のカメラの視野内の周辺光が閾値を下回るときに満たされる基準(例えば、可変フレームレート基準は、周辺光が閾値を上回るときには満たされていない)を含み、1つ以上のカメラの視野内の変化を検出する前に、1つ以上のカメラの視野の表現が、第3のフレームレート(例えば、通常の照明条件でのフレームレート)(例えば、1888、1890、及び1892)で更新される(1918)。いくつかの実施形態では、1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされていないとの判定に従って、電子デバイス(例えば、600)は、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持する(1920)(例えば、1つ以上のカメラの視野内で検出された変化が(例えば、判定することなく、又は判定を考慮することなく)移動基準を満たすかどうかにかかわらず)(例えば、図8Aの630)。1つ以上のカメラの視野内の変化を検出したことに応じて、かつ可変フレームレート基準が満たされていないとの判定に従って、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、フラッシュ動作と互いに排他的である(例えば、フラッシュ動作が非アクティブのときにアクティブ又はフラッシュ動作がアクティブのときに非アクティブ)。いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに反対である。 In some embodiments, a variable frame rate criterion is met when ambient light within the field of view of one or more cameras is below a threshold (e.g., a variable frame rate criterion is met when ambient light is above a threshold). prior to detecting a change in the field of view of the one or more cameras, the representation of the field of view of the one or more cameras is at a third frame rate (e.g., the frame rate under normal lighting conditions). ) (eg, 1888, 1890, and 1892). In some embodiments, in response to detecting a change in the field of view of one or more cameras and in accordance with determining that the variable frame rate criteria are not met, the electronic device (eg, 600) performs a second Maintaining 1920 an updated representation of the field of view of one or more cameras at a frame rate of 3 (e.g., changes detected within the field of view of one or more cameras (e.g., without or without determination) (eg, 630 in FIG. 8A) regardless of whether the movement criteria are met). Updating representations of the one or more cameras' fields of view at a third frame rate in response to detecting a change in the one or more cameras' fields of view and in accordance with determining that the variable frame rate criteria are not met. By maintaining make the user-device interface more efficient (e.g., by helping the user to make appropriate inputs and reducing user error when operating/interacting with the device); In addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. In some embodiments, variable frame rate criteria include criteria that are met when flash mode is inactive. In some embodiments, the low light condition indicator (eg, 602c) is mutually exclusive with flash operation (eg, active when flash operation is inactive or inactive when flash operation is active). In some embodiments, the state of flash operation and the state of low light capture mode are opposite to each other.

いくつかの実施形態では、第2のフレームレートは、それぞれの閾値を下回る1つ以上のカメラの視野内の周辺光の量に基づく。いくつかの実施形態では、周辺は、1つ以上のカメラ又は検出された周辺光センサによって検出することができる。いくつかの実施形態では、フレームは、周辺光が減少するにつれて減少する。 In some embodiments, the second frame rate is based on the amount of ambient light within the field of view of the one or more cameras below respective thresholds. In some embodiments, the surroundings can be detected by one or more cameras or detected ambient light sensors. In some embodiments, the frame decreases as ambient light decreases.

いくつかの実施形態では、移動基準は、1つ以上のカメラの視野内の検出された変化が移動閾値(例えば、閾値移動速度)よりも大きい電子デバイス(例えば、600)の移動に対応する(例えば、移動による視野内のコンテンツの変化率に対応する)ときに満たされる基準を含む。 In some embodiments, the movement criterion corresponds to movement of the electronic device (e.g., 600) where a detected change in the field of view of one or more cameras is greater than a movement threshold (e.g., threshold movement speed) ( For example, it includes criteria that are met when (corresponding to the rate of change of content in the field of view due to movement).

方法1900に関して上述された処理(例えば、図19A~図19B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法1900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。 Note that the details of the processing described above with respect to method 1900 (eg, FIGS. 19A-19B) are also applicable in a similar manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1700, 2000, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 1900. optionally includes one or more of the various method characteristics.

図20A~図20Cは、いくつかの実施形態による、電子デバイスを使用して照明条件に対応するための方法を示すフロー図である。方法2000は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で実行される。方法2000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 20A-20C are flow diagrams illustrating methods for responding to lighting conditions using electronic devices, according to some embodiments. The method 2000 can be implemented using a display device (e.g., touch-sensitive display) and one or more cameras (e.g., one or more cameras (e.g., dual camera, triple camera) on different sides of the electronic device (e.g., front camera, rear camera). , quad cameras, etc.)). Some acts of method 2000 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2000は、照明条件に対応するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に照明条件に対応することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 2000 provides an intuitive way to respond to lighting conditions. This method reduces the cognitive burden on the user when viewing camera indications, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to respond to lighting conditions faster and more efficiently.

電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求(例えば、カメラアプリケーションを表示する要求又はカメラアプリケーション内でメディアキャプチャモードに切り替える要求)を受信する(2002)。 An electronic device (eg, 600) receives a request to display a camera user interface (eg, a request to display a camera application or a request to switch to media capture mode within a camera application) (2002).

カメラユーザインタフェースを表示する要求を受信したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2004)。 In response to receiving the request to display the camera user interface, the electronic device (eg, 600) displays (2004) the camera user interface via the display device.

カメラユーザインタフェースを表示すること(2004)は、電子デバイス(例えば、600)が、表示デバイス(例えば、602)を介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2006)を含む。 Displaying a camera user interface (2004) involves an electronic device (e.g., 600) viewing an open observable area that is visible to one or more cameras (e.g., cameras) via a display device (e.g., 602). , the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens) field of view representation (e.g. 630) (e.g. representation over time, live preview feed of data from the camera). (2006).

カメラユーザインタフェースを表示すること(2004)は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値(例えば、20ルクス)を下回る(例えば、又は、代替的に、値のそれぞれの範囲の間)ときに満たされる条件を含む低光条件が満たされたとの判定に従って、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、630)と同時に、メディアをキャプチャする要求に応じてメディア(例えば、画像、ビデオ)をキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)(例えば、キャプチャ持続時間調整コントロール)を表示すること(2008)を含む。1つ以上のカメラの視野の表現と同時に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、視野の表現を閲覧している間に、キャプチャ持続時間を迅速かつ容易に調整することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。いくつかの実施形態では、周辺光は、1つ以上のカメラ又は専用の周辺光センサを介して、周辺光を検出することによって、判定した。 Displaying 2004 a camera user interface may indicate that ambient light within the field of view of one or more cameras is below a respective threshold (eg, 20 lux) (eg, or alternatively, within a respective range of values). An electronic device (e.g., 600) captures media concurrently with representations of one or more camera views (e.g., 630) in accordance with a determination that low-light conditions have been met, including conditions that are met when Including displaying 2008 a control (eg, slider) (eg, a slider) for adjusting the capture duration for capturing media (eg, image, video) on demand (eg, 1808). . Displaying controls for adjusting the capture duration for capturing media simultaneously with representations of one or more cameras' views, allowing the user to quickly and easily capture durations while viewing representations of the views allows you to adjust to Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, an adjustable control (eg, 1804) includes tick marks, each tick mark representing the value of the adjustable control. In some embodiments, ambient light was determined by detecting ambient light via one or more cameras or a dedicated ambient light sensor.

カメラユーザインタフェースを表示すること(2004)は、低光条件が満たされなかったとの判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示することをやめること(2010)を含む。低光条件が満たされていないとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することをやめることによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Displaying a camera user interface (2004) causes the electronic device (eg, 600) to display controls (eg, 1804) for adjusting the capture duration in accordance with determining that low light conditions have not been met. Including quitting (2010). By ceasing to display the controls for adjusting the capture duration upon determining that the low light conditions have not been met, the electronic device detects that the set of conditions have been met without requiring further user input. Take action when (or not satisfied) to enhance device usability and improve user-device interface (e.g., user to provide appropriate input when operating/interacting with device). In addition, by enabling the user to use the device more efficiently, the power usage of the device is reduced and battery life is reduced. be improved.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光条件(例えば、周辺光の減少又は周辺光の増加)がもはや満たされていないというインジケーションを取得する(例えば、受信する、判定する、得る)(2012)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が行われる)。いくつかの実施形態では、インジケーションを取得したことに応じて、電子デバイス(例えば、600)は、表示デバイスを介して、キャプチャ持続時間を調整するコントロールを表示することを停止する(2014)。低光条件がもはや満たされていないというインジケーションを取得したことに応じて、キャプチャ持続時間を調整するコントロールの表示を(例えば、自動的に、ユーザ入力なしで)停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされ続けるとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)の表示を維持する。 In some embodiments, the electronic device (eg, 600) controls low light conditions (eg, ambient light reduction or ambient light obtain (eg, receive, determine, obtain) an indication that the low light condition is no longer met (2012) (eg, at another time another determination of whether the low light condition is met is done). In some embodiments, in response to obtaining the indication, the electronic device (eg, 600) stops displaying controls for adjusting the capture duration via the display device (2014). By stopping displaying (e.g., automatically, without user input) the control that adjusts the capture duration in response to obtaining an indication that low light conditions are no longer met, the electronic device , performs an action when a set of conditions are met (or not met) without the need for further user input, thereby enhancing device operability and providing a user-device interface (e.g. , by helping the user to provide appropriate input when operating/interacting with the device, and by reducing user error), as well as enabling the user to navigate the device more quickly and efficiently. This reduces device power usage and improves battery life. In some embodiments, upon determining that low-light conditions continue to be met, the electronic device (eg, 600) responds to a request to capture media with a control (eg, , 1804) is maintained.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を同時に表示することなく、1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、低光条件が満たされたというインジケーションを取得する(例えば、受信する、判定する、検出する、得る)(2030)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が行われる)。いくつかの実施形態では、インジケーションを取得したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示する(2032)。低光条件が満たされたというインジケーションを取得したことに応じて、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロールを表示することによって、ユーザに、コントロールが必要そうなときにキャプチャ持続時間を調整するコントロールへの迅速かつ便利なアクセスを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされていないとの判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応じて、メディアをキャプチャするキャプチャ持続時間を調整するコントロールの表示をやめることを維持する。 In some embodiments, while displaying a representation of one or more camera views (e.g., 630) without simultaneously displaying controls for adjusting the capture duration (e.g., 1804), the electronic device (e.g., 600) obtains (e.g., receives, determines, detects, obtains) an indication that the low light condition has been met (2030) (e.g., at another time the low light condition has been another determination is made). In some embodiments, in response to obtaining the indication, the electronic device (eg, 600) controls (eg, 1804) adjusting the capture duration concurrently with rendering the view of one or more cameras. is displayed (2032). In response to obtaining an indication that low-light conditions have been met, the user may be required to take control by displaying a representation of the field of view of one or more cameras, as well as a control to adjust the capture duration. Provides quick and convenient access to controls to adjust the capture duration when needed. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, upon determining that low light conditions are not met, the electronic device (e.g., 600) responds to a request to capture media by adjusting the capture duration for capturing media. Keep it off display.

いくつかの実施形態では、低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む(例えば、フラッシュ設定がオフに設定される、フラッシュ動作の状態が非アクティブである)。 In some embodiments, low light conditions include conditions met when the flash mode is inactive (eg, flash setting is set to off, state of flash operation is inactive).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、スライダである。いくつかの実施形態では、スライダは、ティックマークを含み、各ティックマーク(例えば、間隔で表示される)は、キャプチャ持続時間を表す。 In some embodiments, the control for adjusting the capture duration (eg, 1804) is a slider. In some embodiments, the slider includes tick marks, with each tick mark (eg, displayed in intervals) representing a capture duration.

いくつかの実施形態では、カメラユーザインタフェースを表示することは、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、1802)と同時に、選択されると、1つ以上のカメラ(例えば、シャッターアフォーダンス;シャッターボタン)を使用してメディアのキャプチャを開始するメディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(2016)ことを更に含む。 In some embodiments, displaying a camera user interface may include displaying one or more displaying 2016 a media capture affordance (eg, 610) (eg, a selectable user interface object) for initiating media capture using the camera (eg, shutter affordance; shutter button) of the camera.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する(2018)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。キャプチャ持続時間を調整するコントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することにより、表示表現の設定されたキャプチャ持続時間の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)から第2のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)にキャプチャ持続時間を調整するコントロール(例えば、1804)を調整する要求(例えば、調整可能なコントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応じて、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーションの表示を、第2のキャプチャ持続時間の第2のインジケーションの表示に置き換える(2020)。いくつかの実施形態では、キャプチャ持続時間は、設定時に表示される。いくつかの実施形態では、キャプチャ持続時間は、表示されない。いくつかの実施形態では、持続時間は、調整可能なコントロールを介して設定された値と同じである。いくつかの実施形態では、持続時間は、調整可能な入力コントロールを介して設定された値とは異なる(例えば、値は1秒であるが、持続時間は0.9秒である;値は1秒であるが、持続時間は、8枚のピクチャである)。これらの実施形態のうちのいくつかでは、持続時間に対する値の対応(例えば、平行移動)は、電子デバイス(例えば、600)及び/若しくはカメラのタイプ、又は電子デバイス若しくはカメラの実行中のソフトウェアのタイプに基づく。 In some embodiments, while displaying controls for adjusting the capture duration (eg, 1804), the electronic device (eg, 600) provides a first indication of a first capture duration (eg, , numeric values, slider knobs (eg, bars) on slider tracks (2018) (eg, time (eg, total capture time, exposure time), measured in number of pictures/frames). Providing visual feedback to the user of the set capture duration of the display representation by displaying a first indication of the first capture duration while displaying controls for adjusting the capture duration. do. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. In some embodiments, a first capture duration (e.g., time (e.g., total capture time, exposure time), measured in number of pictures/frames) to a second capture duration (e.g., time ( A request to adjust a control (e.g., 1804) that adjusts the capture duration (e.g., total capture time, exposure time), measured in number of pictures/frames (e.g., adjust a slider control on an adjustable control). In response to receiving an indication on a possible control (e.g., dragging to a value), the electronic device (e.g., 600) displays the first indication for a first capture duration by: Replace 2020 with a display of a second indication of a second capture duration. In some embodiments, the capture duration is displayed during setup. In some embodiments, the capture duration is not displayed. In some embodiments, the duration is the same as the value set via the adjustable control. In some embodiments, the duration is different than the value set via the adjustable input control (e.g., the value is 1 second, but the duration is 0.9 seconds; the value is 1 seconds, but the duration is 8 pictures). In some of these embodiments, the correspondence of value (eg, translation) to duration is determined by the type of electronic device (eg, 600) and/or camera, or the type of software running on the electronic device or camera. Based on type.

いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、1つ以上のカメラの第1の視野の第1の表現である(2022)。いくつかの実施形態では、更に、第1のキャプチャ持続時間からキャプチャ持続時間を調整するコントロールを調整する要求を受信したことに応じて(2024)、電子デバイス(例えば、600)は、第1の表現の表示を、1つ以上のカメラの視野の第2の表現に置き換え、第2の表現は、第2のキャプチャ持続時間に基づき、かつ第1の表現と視覚的に区別される(例えば、より明るい)(2026)。いくつかの実施形態では、第4の表現の輝度は、第5の表現の輝度とは異なる(2028)。 In some embodiments, the representation of the one or more cameras' fields of view (eg, 630) is a first representation of a first field of view of the one or more cameras (2022). In some embodiments, further in response to receiving (2024) a request to adjust a control that adjusts the capture duration from the first capture duration, the electronic device (eg, 600) Replace the display of representations with a second representation of the field of view of one or more cameras, the second representation based on a second capture duration and visually distinct from the first representation (e.g., brighter) (2026). In some embodiments, the intensity of the fourth representation is different than the intensity of the fifth representation (2028).

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンスの選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、かつ第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))に対応するとの判定に従って、電子デバイス(例えば、600)は、持続時間(例えば、第2のキャプチャ持続時間とは異なる通常持続時間(例えば、電子デバイス上で静止写真をキャプチャするための持続時間に等しい))に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。メディアをキャプチャする要求を受信したことに応じて、かつ第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、(例えば、第2のキャプチャ持続時間とは異なる)持続時間に基づいて、メディアのキャプチャを開始することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, while displaying the second indication of the second capture duration, the electronic device (eg, 600) receives a request to capture media. In some embodiments, receiving a request to capture media corresponds to selecting a media capture affordance (eg, tapping). In some embodiments, a predetermined capture duration (e.g., zero or less duration) in response to receiving a request to capture media and the second capture duration deactivates the low-light capture mode. (e.g., a duration corresponding to a duration of operating the device under standard conditions or another condition), the electronic device (e.g., 600) outputs a duration (e.g., a second capture duration) media capture via one or more cameras based on a different normal duration (e.g., equal to the duration for capturing still photographs on an electronic device). In response to receiving a request to capture media and in accordance with a determination that the second capture duration corresponds to a predetermined capture duration that deactivates the low-light capture mode (e.g., the second capture duration By initiating media capture based on a duration (as distinct from time), the electronic device performs actions when a set of conditions are met without requiring further user input, thereby , the usability of the device is enhanced and the user-device interface is improved (e.g., by helping the user to make appropriate inputs and reducing user error when operating/interacting with the device). By making it efficient and, in addition, allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life.

いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンス(例えば、610)の選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、(かつ、いくつかの実施形態では、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応しないとの判定に従って)、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。いくつかの実施形態では、メディアキャプチャユーザインタフェース(例えば、608)は、メディアがキャプチャされた後のメディアの表現を含む。 In some embodiments, while displaying the second indication of the second capture duration, the electronic device (eg, 600) receives a request to capture media. In some embodiments, receiving a request to capture media corresponds to selecting (eg, tapping) a media capture affordance (eg, 610). In some embodiments, in response to receiving a request to capture media (and in some embodiments, the second capture duration is a pre-determined capture duration that deactivates the low-light capture mode). Upon determining that it does not correspond to the time), the electronic device (eg, 600) begins capturing media via one or more cameras based on the second capture duration. In some embodiments, the media capture user interface (eg, 608) includes a representation of the media after the media has been captured.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現(例えば、630)を表示することを停止する。いくつかの実施形態では、表現(例えば、630)(例えば、ライブプレビュー)は、低光条件が満たされているときにメディアをキャプチャしている間にまったく表示されない。いくつかの実施形態では、表現(例えば、630)は、低光条件が満たされているときにメディアをキャプチャしている間に所定の期間にわたって表示されない。低光条件が満たされているときにメディアをキャプチャする間に表現をまったく表示しないこと、又は低光条件が満たされているときにメディアをキャプチャしている間に所定の期間にわたって表現を表示しないことは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to capture more media, the electronic device (eg, 600) stops displaying representations (eg, 630) of one or more cameras' views. do. In some embodiments, the representation (eg, 630) (eg, live preview) is not displayed at all while capturing media when low light conditions are met. In some embodiments, the representation (eg, 630) is not displayed for a period of time while capturing media when low light conditions are met. Displaying no representation while capturing media when low light conditions are met, or not displaying a representation for a period of time while capturing media when low light conditions are met That means less device power usage and improved battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の色(例えば、黒)で表示される。いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第1の色とは異なる第2の色(例えば、赤)でキャプチャ持続時間を調整するコントロール(例えば、1804)を表示する。 In some embodiments, controls for adjusting the capture duration (eg, 1804) are displayed in a first color (eg, black). In some embodiments, in response to receiving a request to further capture media, the electronic device (eg, 600) captures in a second color (eg, red) different from the first color for the capture duration. display a control (e.g., 1804) that adjusts the

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第3のキャプチャ値(例えば、所定の開始値又は巻き出し値(例えば、ゼロ))の第3のインジケーションを第2のキャプチャ持続時間の第2のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする(例えば、ゼロから値への巻き取り))、第1のアニメーション(例えば、エッグタイマーの巻き取り及び設定)を表示する。第1のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のアニメーションを表示した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間の第2のインジケーションを第3のキャプチャ値の第3のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))、第2のアニメーション(例えば、エッグタイマーのカウントダウン)を表示し、第2のアニメーションの持続時間は、第2のキャプチャ持続時間の持続時間に対応し、第1のアニメーションの持続時間とは異なる。第2のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、第1のアニメーションと第2のアニメーションとの間にポーズがある。いくつかの実施形態では、第1及び第2のアニメーションのうちの少なくとも1つは、巻き取り又は巻き出しするエッグタイムの音を有する。いくつかの実施形態では、第2のアニメーションは、第1のアニメーションよりも遅い。 In some embodiments, in response to receiving a request to further capture media, the electronic device (eg, 600) sets a third capture value (eg, a predetermined start value or an unwind value (eg, zero )) to a second indication of a second capture duration (e.g., sliding the indication (e.g., slider bar) across a slider (e.g., winding from zero to a value) ) to display the first animation (eg, winding and setting the egg timer). Displaying the first animation provides the user with visual feedback of the change(s) in the set capture value. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. In some embodiments, after displaying the first animation, the electronic device (eg, 600) extends the second indication of the second capture duration to the third indication of the third capture value. Move (e.g. slide an indication (e.g. slider bar) across a slider) (e.g. unwind (e.g. countdown from value to zero)), display a second animation (e.g. countdown of egg timer) , the duration of the second animation corresponds to the duration of the second capture duration and is different from the duration of the first animation. Displaying the second animation provides visual feedback to the user of the change(s) in the set capture value. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. In some embodiments, there is a pose between the first animation and the second animation. In some embodiments, at least one of the first and second animations has an egg time sound of winding or unwinding. In some embodiments, the second animation is slower than the first animation.

いくつかの実施形態では、第1のアニメーションを表示している間に、電子デバイス(例えば、600)は、第1の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第2のアニメーションを表示している間に、電子デバイス(例えば、600)は、第2の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第1の触知出力は、第2の触知出力とは異なるタイプの触知出力であり得る。第1のアニメーションを表示している間に、第1の触知出力を提供すること、及び第2のアニメーションを表示している間に、第2の触知出力を提供することにより、設定されたキャプチャ値における変化(単数又は複数)の更なるフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) provides a first tactile output (eg, a haptic (eg, vibration) output) while displaying the first animation. In some embodiments, the electronic device (eg, 600) provides a second tactile output (eg, a haptic (eg, vibration) output) while displaying the second animation. In some embodiments, the first tactile output can be a different type of tactile output than the second tactile output. set by providing a first tactile output while displaying the first animation and providing a second tactile output while displaying the second animation; provide further feedback to the user of the change(s) in the captured value(s). Improve the usability of the device by providing improved feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device and reduce user error). reduce power usage and improve device battery life by making the user-device interface more efficient by reducing the do.

いくつかの実施形態では、メディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいてメディアをキャプチャする。 In some embodiments, after initiating media capture, the electronic device (eg, 600) captures media based on a second capture duration.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディア(例えば、メディアをキャプチャしている間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間が経過する前に、第2のメディアのキャプチャを終了する要求を受信する。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づく第2のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のメディアのキャプチャを終了する要求を受信する前に1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた第2のメディアの表現を表示する。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第2のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第2のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) captures the second media (eg, while capturing the media) based on the second capture duration. A request to capture a second selection (eg, tap) of a second affordance requesting to capture media is received. In some embodiments, in response to receiving a request to capture the second media based on the second capture duration, the electronic device (eg, 600), based on the second capture duration Begin capturing the second media. In some embodiments, after initiating capture of the second media based on the second capture duration, the electronic device (eg, 600) captures the second media before the second capture duration elapses. Receives a request to end capturing media for In some embodiments, in response to receiving a request to end capturing the second media, the electronic device (eg, 600) ends capturing the second media based on the second capture duration. (e.g., stop, stop). In some embodiments, in response to receiving a request to end capturing the second media, the electronic device (eg, 600) waits 1 time before receiving the request to end capturing the second media. Based on the visual information captured by the one or more cameras, a representation of the second media captured prior to termination is displayed. In some embodiments, if the capture of the second media item ends before the second capture duration elapses, less visual information is captured than was captured, producing a clear image. The second media is darker or has less contrast than the first media item to provide reduced power.

いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディア(例えば、メディアをキャプチャしている間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を上回らない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を上回るとの判定に従って、電子デバイス(例えば、600)は、第3のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を上回らない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を上回るとの判定に従って、電子デバイス(例えば、600)は、第2のメディアのキャプチャを終了する要求を受信する前に1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた第3のメディアの表現を表示する。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第3のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第3のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) captures the third media (eg, while capturing the media) based on the second capture duration. A request to capture a second selection (eg, tap) of a second affordance requesting to capture media is received. In some embodiments, in response to receiving a request to capture third media based on the second capture duration, the electronic device (eg, 600) performs Start capturing the third media. In some embodiments, after initiating capture of the third media based on the second capture duration, one or more cameras (e.g., one or more cameras embedded within the housing of the electronic device) if the detected change in the field of view exceeds a movement criterion (in some embodiments, the user has moved the device above a threshold while capturing; in some embodiments, if the movement does not exceed the movement criterion) , the electronic device continues to capture media without interruption), the electronic device (eg, 600) terminates (eg, stops, stops) capturing the third media. In some embodiments, after initiating capture of the third media based on the second capture duration, one or more cameras (e.g., one or more cameras embedded within the housing of the electronic device) if the detected change in the field of view exceeds a movement criterion (in some embodiments, the user has moved the device above a threshold while capturing; in some embodiments, if the movement does not exceed the movement criterion) , the electronic device continues to capture media without interruption), the electronic device (e.g., 600) may capture one or more cameras before receiving a request to finish capturing the second media. displays the representation of the third media captured prior to termination based on the visual information captured by . In some embodiments, if the capture of the third media item ends before the second capture duration elapses, less visual information is captured than was captured, producing a clear image. The third media is darker or has less contrast than the first media item to provide reduced power.

いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応じて、電子デバイス(例えば、600)は、メディアをキャプチャするように要求するアフォーダンス(例えば、610)の表示を、メディア(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))のキャプチャを終了するアフォーダンス(例えば、図18Kの610)の表示に置き換える。メディアをキャプチャする要求を受信したことに応じて、メディアをキャプチャするように要求するアフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えることは、ユーザが、このようなアフォーダンスが必要とされる可能性があるときに、メディアのキャプチャを終了するアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンス(例えば、1806)がカメラ持続時間に基づいて、時間中に表示された後、電子デバイス(例えば、600)は、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンス(例えば、610)に置き換える。 In some embodiments, in response to further receiving a request to capture media, the electronic device (eg, 600) displays an indication of affordances (eg, 610) requesting to capture media by displaying the media (eg, 610). For example, replacing the capture of a stop affordance (eg, a selectable user interface object) with the display of an ending affordance (eg, 610 in FIG. 18K). Replacing an indication of affordances requesting to capture media with an indication of affordances to end capturing media in response to receiving a request to capture media is an indication of whether such affordances are required by the user. Allows quick and easy access to affordances to end media capture when there is a chance of Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, the stopping affordance is displayed over time based on the camera duration. In some embodiments, after the stopping affordance (eg, 1806) is displayed for a time based on the camera duration, the electronic device (eg, 600) displays the stopping affordance when the camera duration expires. with an affordance (eg, 610) for requests to capture media.

いくつかの実施形態では、メディアのキャプチャを開始した後に(例えば、メディアのキャプチャを要求するアフォーダンスを押圧後に)、電子デバイス(例えば、600)は、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始2秒後))でキャプチャされた第1のメディアの第1の表現を表示する。いくつかの実施形態では、第1のメディアの第1の表現を表示した後に、電子デバイス(例えば、600)は、第1のメディアの第1の表現の表示を、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始後3秒))の後の第2のキャプチャ時間でキャプチャされた第1のメディアの第2の表現の表示に置き換え、第2の表現は、第1のメディアの第1の表現と視覚的に区別される(例えば、より明るい)(例えば、より多くの画像データが取得され、かつ合成画像を生成するために使用されるため、ますます明るい輪郭のはっきりした合成画像を表示する)。 In some embodiments, after initiating media capture (e.g., after pressing an affordance requesting media capture), the electronic device (e.g., 600) selects a first capture time (e.g., time point of capture (e.g., For example, display the first representation of the first media captured at )) two seconds after the start of media capture. In some embodiments, after displaying the first representation of the first media, the electronic device (eg, 600) displays the first representation of the first media at a first capture time (eg, , a representation of a second representation of the first media captured at a second capture time after the point in time of capture (e.g., 3 seconds after media capture begins), the second representation replacing the Contours that are visually distinct (e.g., brighter) from the first representation of one media (e.g., brighter and brighter contours as more image data is acquired and used to generate the composite image) display a clear composite image).

いくつかの実施形態では、第1のメディアの第1の表現の表示を第1のメディアの第2の表現の表示に置き換えることは、所定の期間後に行われる。いくつかの実施形態では、置き換え(例えば、光沢)は、等間隔で(例えば、滑らかな光沢ではない)で行われる。 In some embodiments, replacing the display of the first representation of the first media with the display of the second representation of the first media occurs after a predetermined period of time. In some embodiments, the replacement (eg, gloss) is evenly spaced (eg, not smooth gloss).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたとの判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)と同時に、低光キャプチャモードの状態(例えば、602c)がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含む。低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択(例えば、タップ)を受信する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの表示を維持している間に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示することを停止する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータの外観を更新する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)は、キャプチャ持続時間を調整するコントロールの表示を停止すると(例えば、低光条件が満たされている間)、維持される。 In some embodiments, displaying the camera user interface (e.g., 608) causes the electronic device (e.g., 600) to adjust the capture duration control (e.g., , 1804) while simultaneously displaying a low light capture state indicator indicating that the state of the low light capture mode (eg, 602c) is active. By displaying a low-light capture status indicator along with controls for adjusting the capture duration in accordance with a determination that a low-light condition has been met, the electronic device can indicate that a set of conditions has been met without requiring further user input. Executes an action when satisfied, which enhances the device's usability and improves the user-device interface (e.g., assists the user in providing appropriate input when operating/interacting with the device). and reduce user error), and in addition, by allowing users to use the device more quickly and efficiently, the device uses less power and improves battery life. be. In some embodiments, while displaying the low light capture state indicator, the electronic device (eg, 600) performs a first selection (eg, tap) of the low light capture state indicator (eg, 602c). receive. In some embodiments, in response to receiving the first selection of the low light capture state indicator (eg, 602c), the electronic device (eg, 600) maintains display of the low light capture state indicator. stop displaying controls (eg, 1804) that adjust the capture duration while In some embodiments, in response to receiving the first selection of the low light capture state indicator (eg, 602c), the electronic device (eg, 600) is inactive in the low light capture mode state. Update the appearance of the low light capture status indicator to indicate that In some embodiments, the low light capture status indicator (eg, 602c) is maintained when the control for adjusting the capture duration stops being displayed (eg, while low light conditions are met).

いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたとの判定に従って、低光キャプチャモードが非アクティブであることを示す低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)が、低光キャプチャ状態インジケータ(例えば、602c)の第2の選択(例えば、タップ)を受信することを含む。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第2の選択を受信したことに応じて、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)を再表示する。いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)が再表示されると、以前のキャプチャ値のインジケーションをコントロール上に表示する(例えば、コントロールは、以前に設定された最後の値に設定されたままであり続ける)。 In some embodiments, displaying the camera user interface (eg, 608) displays a low light capture status indicator indicating that the low light capture mode is inactive following determining that the low light condition has been met. While displaying, the electronic device (eg, 600) receives a second selection (eg, tap) of the low light capture status indicator (eg, 602c). In some embodiments, in response to receiving the second selection of the low light capture status indicator (eg, 602c), the electronic device (eg, 600) controls the capture duration adjustment control (eg, 1804). ) is redisplayed. In some embodiments, when the control that adjusts the capture duration (e.g., 1804) is redisplayed, it displays an indication of the previous capture value on the control (e.g., the control was previously set to remains set to the last value).

いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応じて、電子デバイス(例えば、600)は、フラッシュ動作を実行しないように電子デバイスを構成する。いくつかの実施形態では、フラッシュ動作の非アクティブ状態を示すフラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作のアクティブ状態を示すフラッシュ状態の表示を置き換える。いくつかの実施形態では、メディアのキャプチャが開始されると、電子デバイス(例えば、600)は、フラッシュ動作を実行するように構成されておらず、フラッシュ動作は、メディアをキャプチャするときに発生しない(例えば、フラッシュがトリガされない)。 In some embodiments, in response to receiving the first selection of the low light capture status indicator (eg, 602c), the electronic device (eg, 600) configures the electronic device to not perform flash operations. do. In some embodiments, a flash status indicator (eg, 602a) indicating an inactive state of flash operation replaces a flash status indication indicating an active state of flash operation. In some embodiments, once media capture is initiated, the electronic device (e.g., 600) is not configured to perform a flash operation, and the flash operation does not occur when capturing media. (e.g. flash not triggered).

いくつかの実施形態では、低光条件は、低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む。いくつかの実施形態では、キャプチャ持続時間を調整するコントロールが表示される前に、低光キャプチャ状態インジケータが選択される(例えば、電子デバイスが低光状態インジケータに向けられたジェスチャを検出する)。 In some embodiments, low light conditions include conditions that are met when a low light capture state indicator is selected. In some embodiments, a low-light capture state indicator is selected (eg, the electronic device detects a gesture directed at the low-light state indicator) before the controls for adjusting the capture duration are displayed.

方法2000に関して上述された処理(例えば、図20A~図20C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that the details of the processing described above with respect to method 2000 (eg, FIGS. 20A-20C) are also applicable in an analogous manner to the methods described above and below. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2000. optionally includes one or more of the various method characteristics. For the sake of brevity, these details are not repeated below.

図21A~図21Cは、いくつかの実施形態による、電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。方法2100は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))、及び任意選択的に、専用の周辺光センサを備えるデバイス(例えば、100、300、500、600)で実行される。方法2100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 21A-21C are flow diagrams illustrating methods for providing camera indications using an electronic device, according to some embodiments. The method 2100 uses one or more cameras (e.g., dual cameras, triple cameras) on different sides of the electronic device (e.g., front camera, rear camera) and one or more cameras (e.g., a display device (e.g., touch-sensitive display) and one or more cameras (e.g., front camera, rear camera) , quad cameras, etc.), and optionally on devices with dedicated ambient light sensors (eg, 100, 300, 500, 600). Some acts of method 2100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2100は、カメラインジケーションを提供するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラインジケーションを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 2100 provides an intuitive way to provide camera indications. This method reduces the cognitive burden on the user when viewing camera indications, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to view camera indications faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2102)。 An electronic device (eg, 600) displays (2102) a camera user interface via a display device.

カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、電子デバイスの1つ以上のセンサ(例えば、1つ又は周辺光センサ、1つ以上のカメラ)を介して、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))を検出する(2104)。 While displaying the camera user interface, the electronic device (eg, 600), via one or more sensors (eg, one or ambient light sensors, one or more cameras) of the electronic device, The amount of light (for example, the amount of luminance (for example, 20 lux, 5 lux)) within the field of view of the camera is detected (2104).

1つ以上のカメラの視野内の光量を検出したことに応じて(2106)、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値(例えば、20ルクス未満)を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(いくつかの実施形態では、低光環境基準は、1つ以上のカメラの視野内の光量が所定の範囲(例えば、20~0ルクス)内にあるときに満たされる基準を含む)内に、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)(いくつかの実施形態では、フラッシュ動作の状態はフラッシュ設定(又はフラッシュモード)に基づく;これらの実施形態のうちのいくつかでは、フラッシュ動作の状態が自動又はオンに設定されているときに、光のフラッシュ(例えば、フラッシュ)は、ミーティングをキャプチャする際に発生する可能性がある;しかしながら、フラッシュ動作がオフに設定されているときに、光のフラッシュは、メディアをキャプチャする際に発生する可能性がない)を示すフラッシュ状態インジケータ(例えば、602a)(2110)(例えば、フラッシュモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))と、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータ(例えば、低光モードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))(2112)と、を同時に表示する(2108)。1つ以上のカメラの視野内の光量が低光環境基準を満たすとの判定に従って、フラッシュ状態インジケータを表示することにより、検出された光量及び得られたフラッシュ設定についてのフィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータは、電子デバイス(例えば、600)が、モード(例えば、低光環境モード)又はカメラユーザインタフェース(例えば、608)上で以前に選択可能でなかった(例えば、容易に利用できない(例えば、選択するための入力を2つ以上有する)又は表示されない)方法で、動作するためのオプションに対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、別の画像で検出された光が所定の閾値を下回っても、低光インジケータが表示されると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持する。いくつかの実施形態では、電子デバイス(例えば、600)は、画像で検出された光が所定の閾値を下回ると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持しないか、又は低光インジケータを表示することを停止する。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)又は低光キャプチャ状態インジケータ(例えば、602c)のうちの1つ以上は、そのそれぞれのモード(例えば、アクティブ(例えば、色(例えば、緑、黄色、青)として表示)又は非アクティブ(例えば、色(グレーアウト、赤、透明)として表示)の状態を示す。 In response to detecting 2106 the amount of light within the field of view of the one or more cameras, the amount of light within the field of view of the one or more cameras exceeds a predetermined threshold (e.g., Upon determining that low-light environment criteria are met, including criteria met when below 20 lux), the electronic device (eg, 600) communicates with the camera user interface (in some embodiments, the low-light environment criteria are , including criteria met when the amount of light within the field of view of one or more cameras is within a predetermined range (e.g., 20 to 0 lux); operability in which the flash may occur) (in some embodiments, the state of flash operation is based on the flash setting (or flash mode); in some of these embodiments, the state of flash operation is A flash of light (e.g. flash) may occur when capturing a meeting when set to Auto or On; Flash status indicator (e.g., 602a) (2110) (e.g., flash mode affordance (e.g., selectable user interface object)) indicating that flash is not likely to occur when capturing media, and low light capture A low-light capture status indicator (eg, low-light mode affordance (eg, selectable user interface object)) indicating the state of the mode (2112) is simultaneously displayed (2108). Upon determining that the amount of light within the field of view of one or more cameras meets low-light environment criteria, a flash status indicator is displayed to provide user feedback on the amount of light detected and the resulting flash setting. By providing improved feedback, the usability of the device is enhanced (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) The user-device interface is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently. . In some embodiments, the low light capture status indicator is previously not selectable on the electronic device (e.g., 600) mode (e.g., low light environment mode) or camera user interface (e.g., 608). It corresponds to an option to act (eg, in a way that is not readily available (eg, has more than one input to select from) or is not displayed). In some embodiments, the electronic device (e.g., 600) displays a low light capture status indicator (e.g., 600) when the low light indicator is displayed even though light detected in another image is below a predetermined threshold. 602c) is maintained. In some embodiments, the electronic device (eg, 600) does not maintain display of the low-light capture status indicator (eg, 602c) or the low-light capture status indicator (eg, 602c) when the light detected in the image falls below a predetermined threshold. Stop showing the indicator. In some embodiments, one or more of the flash status indicator (eg, 602a) or the low light capture status indicator (eg, 602c) are in their respective modes (eg, active (eg, colored (eg, green , yellow, blue)) or inactive (eg, displayed as a color (grayed out, red, transparent)).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、メディアをキャプチャしている間に、デバイスが光源(例えば、デバイスに含まれる光源)からの追加の光を使用する)の状態がアクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作基準が満たされているとの判定に従って、フラッシュ動作の状態がアクティブであることを示すフラッシュ状態インジケータは、フラッシュ動作の現在の設定及び環境内の光量をユーザに知らせる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。 In some embodiments, the amount of light within the field of view of one or more cameras meets low-light environment criteria, and flash operation is set to active or inactive (e.g., flash setting is set to auto ), the flash status indicator (e.g., 602a) indicates whether flash The state of the operation (e.g., the device uses additional light from a light source (e.g., a light source included in the device) while capturing media) is active (e.g., active (“on”), inactive ("off")). A flash status indicator indicating that the status of flash operation is active according to a determination that the amount of light within the field of view of the one or more cameras meets the low light environment criteria and that the flash operation criteria are met indicates that the flash operation informs the user of the current settings of and the amount of light in the environment. Improve the usability of the device by providing improved feedback to the user (e.g., assist the user in providing appropriate input when operating/interacting with the device and reduce user error). reduce power usage and improve device battery life by making the user-device interface more efficient by reducing the do. In some embodiments, the amount of light within the field of view of one or more cameras meets low-light environment criteria, and flash operation is set to active or inactive (e.g., flash setting is set to auto ), the low-light capture indicator (e.g., 602c) may: Indicates that the state of the low light capture mode is inactive (eg, active (“on”), inactive (“off”)).

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているとの判定に従って、フラッシュ状態インジケータは、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)にあり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されていないとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態が非アクティブであることを示し、低光キャプチャインジケータは、低光キャプチャモードの状態がアクティブであることを示す。 In some embodiments, the amount of light within the field of view of the one or more cameras is within a first predetermined range (moderately flash according to the determination that the light is low (eg, 20-10 lux, outside the flash range) and the flash setting (eg, flash mode setting on the device) is set to active (eg, on) The status indicator indicates that the status of the flash operation (eg, operability in which the flash may occur when capturing media) is active, and the low light capture indicator (eg, 602c) indicates that the low light capture Indicates that the state of the mode is inactive. In some embodiments, the amount of light within the field of view of the one or more cameras is within a first predetermined range (moderately flash according to determination that it is in low light (e.g., 20-10 lux, outside the flash range) and the flash setting (e.g., flash mode setting on the device) is not set to active (e.g., on) A status indicator (eg, 602a) indicates that the status of flash operation is inactive, and a low light capture indicator indicates that the status of low light capture mode is active.

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲内(例えば、非常に低光(例えば、10~0ルクスなどの範囲)、フラッシュ範囲内)にあり(いくつかの実施形態では、第1の所定の範囲(例えば、20~10ルクスなどの範囲)は、第2の所定の範囲(10~0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されているとの判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)が非アクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態がアクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲内(例えば、非常に低光(例えば、10~0ルクスなどの範囲)、フラッシュ範囲内)にある(いくつかの実施形態では、第1の所定の範囲(例えば、20~10ルクスなどの範囲)は、第2の所定の範囲(10~0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されていない)との判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。 In some embodiments, the amount of light within the field of view of the one or more cameras differs from the first predetermined range while the amount of light within the field of view of the one or more cameras meets the low light environment criteria. 2 (e.g., very low light (e.g., 10-0 lux range), flash range) (in some embodiments, a first pre-determined range (e.g., 20-0 lux)). 10 lux) is greater than the second predetermined range (10 to 0 lux) and the flash setting (eg, flash mode setting on the device) is set to inactive (eg, on) , the flash status indicator (eg, 602a) indicates that the status of flash operation (eg, operability in which flashing may occur when capturing media) is inactive, and low light A capture indicator (e.g., 602c) indicates that a low-light capture mode state is active, hi some embodiments, while the amount of light within the field of view of one or more cameras meets low-light environment criteria. In addition, within a second predetermined range where the amount of light within the field of view of one or more cameras is different from the first predetermined range (e.g., very low light (e.g., a range such as 10 to 0 lux), the flash range (in some embodiments, the first predetermined range (eg, 20-10 lux) is greater than the second predetermined range (10-0 lux), and the flash setting Upon determination (e.g., the flash mode setting on the device) is not set to inactive (e.g., on), the flash status indicator (e.g., 602a) indicates that the state of the flash operation is active. , a low light capture indicator (eg, 602c) indicates that the state of the low light capture mode is inactive.

いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示している間に、電子デバイス(例えば、600)は、フラッシュ状態インジケータの選択(例えば、タップ)を受信する(2116)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応じて(2118)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新する(例えば、フラッシュ状態インジケータをアクティブから非アクティブに変更する)(2120)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応じて(2118)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケータ(例えば、602c)を更新する(例えば、低光キャプチャインジケータを非アクティブからアクティブに変更する)(2122)。選択可能フラッシュ状態インジケータを提供することにより、ユーザが、フラッシュ動作の状態を(例えば、アクティブから非アクティブに、又は非アクティブからアクティブに)迅速かつ容易に変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フラッシュ状態インジケータをタップすることにより、フラッシュモードがオンになり、低光モードがオフになる。 In some embodiments, a flash status indicator (eg, 602a) is displayed and indicates that the status of flash operation is active, a low light capture indicator (eg, 602c) is displayed, and The electronic device (eg, 600) receives a selection (eg, tap) of a flash status indicator (2116) while the low-light capture mode state indicates inactivity. In some embodiments, in response to receiving 2118 the selection of the flash status indicator (eg, 602a), the electronic device (eg, 600) indicates that the status of flash operation is inactive. Then, update the flash status indicator (eg, change the flash status indicator from active to inactive) (2120). In some embodiments, in response to receiving 2118 the selection of the flash status indicator (eg, 602a), the electronic device (eg, 600) indicates that the low light capture mode status is active. so that the low light capture indicator (eg, 602c) is updated (eg, changes the low light capture indicator from inactive to active) (2122). Providing a selectable flash state indicator allows a user to quickly and easily change the state of flash operation (eg, from active to inactive or from inactive to active). Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, tapping the flash status indicator turns flash mode on and low light mode off.

いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示している間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの(例えば、タップ)選択を受信する(2124)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応じて(2126)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータ(例えば、602a)を更新する(例えば、フラッシュ状態インジケータを非アクティブからアクティブに変更する)(2128)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応じて(2126)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、低光キャプチャ状態インジケータを非アクティブからアクティブに変更する)(2130)。選択可能低光キャプチャ状態インジケータを提供することにより、ユーザが、低光キャプチャモードを迅速かつ容易に変更することを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)をタップすることにより、低光モードがオンになり、フラッシュモードがオフになる。 In some embodiments, a flash status indicator (eg, 602a) is displayed and indicates that the status of flash operation is active, a low light capture indicator (eg, 602c) is displayed, and While the low light capture mode state indicates inactive, the electronic device (eg, 600) receives (eg, taps) selection of the low light capture state indicator (2124). In some embodiments, in response to receiving 2126 a selection of the low light capture status indicator (eg, 602c), the electronic device (eg, 600) indicates that the status of flash operation is inactive. As shown, the flash status indicator (eg, 602a) is updated (eg, changing the flash status indicator from inactive to active) (2128). In some embodiments, in response to receiving 2126 the selection of the low light capture state indicator (eg, 602c), the electronic device (eg, 600) determines that the state of the low light capture mode is active. (eg, change the low light capture state indicator from inactive to active) to indicate (2130). Providing a selectable low light capture status indicator allows the user to quickly and easily change low light capture modes. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error) as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, tapping a low light capture status indicator (eg, 602c) turns on low light mode and turns off flash mode.

いくつかの実施形態では、低光キャプチャモードの状態がアクティブであるとの判定に従って、電子デバイス(例えば、600)は、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示する(2132)。低光キャプチャモードの状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、このようなコントロールが必要とされる可能性があるときに、キャプチャ持続時間を調整するコントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, upon determining that the low-light capture mode state is active, the electronic device (eg, 600) may (eg, time (eg, total capture time, exposure time), A control (eg, 1804) (eg, a slider) for adjusting the capture duration (measured in numbers) is displayed (2132). By displaying controls for adjusting the capture duration according to the determination that the low-light capture mode state is active, it is possible that such controls are required by the user. Allows quick and easy access to controls that adjust the capture duration at times. Device usability is enhanced by providing additional control options without cluttering the UI with additional displayed controls, making the user-device interface (e.g., manipulating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently. use less power and improve battery life. In some embodiments, an adjustable control (eg, 1804) includes tick marks, each tick mark representing the value of the adjustable control.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信する(2134)。いくつかの実施形態では、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信したことに応じて(2136)、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))であるとの判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータ(例えば、602c)を更新する(2138)。いくつかの実施形態では、キャプチャ持続時間が所定のキャプチャ持続時間でないとの判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケーション(例えば、602c)を維持する。第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるか、又はキャプチャ持続時間が所定のキャプチャ持続時間でないかどうかの判定に基づいて、低光キャプチャ状態インジケータを(例えば、自動的に、ユーザ入力なしで)更新することによって、ユーザに、低光キャプチャモードがアクティブ又は非アクティブであるかどうかの視覚的フィードバックを提供し、ユーザが低光キャプチャモードを手動で変更する必要がないことを可能にする。改善された視覚的フィードバックを提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) moves from the first capture duration to the second capture duration while displaying the controls (eg, 1804) for adjusting the capture duration. A request to change the control is received (2134). In some embodiments, in response to receiving a request to change the control from the first capture duration to the second capture duration (2136), the second capture duration disables the low light capture mode. Upon determining that a predetermined capture duration to activate (e.g., a duration less than or equal to zero (e.g., a duration corresponding to the duration of operating the device under standard conditions or another condition)), the electronic device (e.g. , 600) updates (2138) the low light capture state indicator (eg, 602c) to indicate that the state of the low light capture mode is inactive. In some embodiments, upon determining that the capture duration is not the predetermined capture duration, the electronic device (eg, 600) performs low light capture mode to indicate that the low light capture mode state is active. Keep the indication (eg, 602c). a low light capture status indicator based on determining whether the second capture duration is the predetermined capture duration that deactivates the low light capture mode or the capture duration is not the predetermined capture duration; Provides visual feedback to the user whether the low light capture mode is active or inactive by updating (e.g., automatically, without user input) and allowing the user to manually activate the low light capture mode. Allows no need to change. Device usability is enhanced by providing improved visual feedback and reducing the number of inputs required to perform an operation, enhancing the user-device interface (e.g., manipulating/interacting with the device). by helping users make appropriate inputs and reducing user errors), as well as by enabling users to use devices more quickly and efficiently. Reduces device power usage and improves battery life.

いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光キャプチャモードの状態の変化を検出する。いくつかの実施形態では、低光キャプチャモードの状態の変化を検出したことに応じて、低光キャプチャモードの状態が非アクティブであるとの判定に従って、電子デバイス(例えば、600)は、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)の表示を停止する。低光キャプチャモードの状態の変化を検出したことに応じて、かつ低光キャプチャモードの状態が非アクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することをやめることによって、電子デバイスは、現在必要とされる可能性がないコントロールオプションを削除するので、追加の表示されたコントロールによってUIを雑然とさせない。これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the electronic device (e.g., 600), while displaying a control (e.g., 1804) (e.g., a slider) that adjusts the capture duration, causes a change in the state of the low light capture mode. To detect. In some embodiments, in response to detecting a change in the state of the low-light capture mode and following determining that the state of the low-light capture mode is inactive, the electronic device (eg, 600) performs (eg, , stops displaying controls (eg, 1804) (eg, sliders) that adjust the capture duration (measured in time (eg, total capture time, exposure time), number of pictures/frames). electronically by ceasing to display controls for adjusting the capture duration in response to detecting a change in the state of the low-light capture mode and in accordance with determining that the state of the low-light capture mode is inactive. The device removes control options that may not be currently needed, so it doesn't clutter the UI with additional displayed controls. This enhances the usability of the device and improves the user-device interface (e.g. by helping the user to make appropriate inputs when operating/interacting with the device and reducing user error). ), and in addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. In some embodiments, an adjustable control (eg, 1804) includes tick marks, each tick mark representing the value of the adjustable control.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内に、1つ以上のカメラの視野の第1の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第1のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第1のメディアのキャプチャを開始する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、第1のメディアのキャプチャ持続時間の間に1つ以上のカメラの視野の第1の表現(例えば、静止写真)の表示を維持する(例えば、更新又は変更なしで表示し続ける)。 In some embodiments, an electronic device (eg, 600) displays a first representation of the field of view of one or more cameras in a camera user interface (eg, 608). In some embodiments, while the low-light capture mode state is active, the electronic device (eg, 600) receives a request to capture the first media in the field of view of one or more cameras. In some embodiments, a request to capture a first media (e.g., photo, video) (e.g., activation of a capture affordance (e.g., tap on)) while the low-light capture mode state is active. In response, the electronic device (eg, 600) begins capturing the first media (eg, via one or more cameras). In some embodiments, a request to capture a first media (e.g., photo, video) (e.g., activation of a capture affordance (e.g., tap on)) while the low-light capture mode state is active. In response, the electronic device (eg, 600) maintains a display of a first representation (eg, still photograph) of one or more camera views for the first media capture duration. (e.g. continue to display without update or change).

いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第2のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のメディアを(例えば、1つ以上のカメラを介して)キャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、第2のメディア(例えば、キャプチャされている写真又はビデオ)の表現を同時に表示する。第2のメディアをキャプチャしている間に、カメラユーザインタフェース内に、第2のメディアの表現を同時に表示することによって、ユーザに、キャプチャされている第2のメディアの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the low-light capture mode state is active, the electronic device (eg, 600) receives a request to capture second media in the field of view of one or more cameras. In some embodiments, a request to capture a second media (e.g., photo, video) (e.g., activation of the capture affordance (e.g., tap on)) while the low-light capture mode state is active. In response, the electronic device (eg, 600) begins capturing the second media (eg, via one or more cameras). In some embodiments, while capturing the second media (eg, via one or more cameras), the electronic device (eg, 600) displays the second media within the camera user interface. (eg, a photograph or video being captured) are simultaneously displayed. By simultaneously displaying a representation of the second media within the camera user interface while the second media is being captured, the user is provided with visual feedback of the second media being captured. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、1つ以上のカメラの視野の第2の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第3のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に第3のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応じて、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第3のメディアのキャプチャを開始する。いくつかの実施形態では、第3のメディアをキャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内の1つ以上のカメラの視野から導出された(例えば、それからキャプチャされた、それに基づく)表現(例えば、キャプチャされているメディア)を表示することを停止する。第3のメディアをキャプチャしている間に、かつ低光キャプチャモードの状態がアクティブである間に、1つ以上のカメラの視野から導出された表現を表示することを停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を実行し、これにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) displays a second representation of the field of view of one or more cameras within the camera user interface. In some embodiments, while the low-light capture mode state is active, the electronic device (eg, 600) receives a request to capture a third media of one or more camera's field of view. In some embodiments, a request (e.g., activation of capture affordance (e.g., tap on)) is received to capture a third media (e.g., photo, video) while the low-light capture mode state is active In response, the electronic device (eg, 600) begins capturing the third media (eg, via one or more cameras). In some embodiments, while capturing the third media, the electronic device (eg, 600) is derived from (eg, captured from) the field of view of one or more cameras within the camera user interface. stop displaying the representation (eg, the media being captured). An electronic device by stopping displaying a representation derived from the field of view of one or more cameras while capturing a third media and while the low-light capture mode state is active. performs an action when a set of conditions are met without requiring further user input, thereby enhancing device usability and providing a user-device interface (e.g., operating the device/ make it more efficient (by helping users provide appropriate input and reduce user error when interacting with the device), as well as allowing users to use the device more quickly and efficiently This reduces device power usage and improves battery life.

1つ以上のカメラの視野内の光量を検出したことに応じて(2106)、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内の低光キャプチャ状態インジケータ(例えば、602c)を表示することをやめる(例えば、フラッシュ状態インジケータの表示を維持している間に)(2114)。1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、低光キャプチャ状態インジケータを表示することをやめることにより、(例えば、検出された光量に基づく必要がないため)低光キャプチャモードが非アクティブであることをユーザに知らせる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In response to detecting 2106 the amount of light within the field of view of one or more cameras, an electronic device (e.g., 600) ceases to display the low light capture status indicator (eg, 602c) in the camera user interface (eg, 608) (eg, while maintaining display of the flash status indicator) (2114). By ceasing to display a low-light capture status indicator (e.g., need not be based on the amount of light detected to inform the user that the low light capture mode is inactive. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、更に1つ以上のカメラの視野内の光量が低光環境基準を満たしていないとの判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータ(例えば、602a)を表示する(例えば、フラッシュ状態インジケータは、低光モードで表示されていないときに、維持される)。 In some embodiments, the electronic device (e.g., 600) further prompts within the camera user interface to indicate in the camera user interface that the flash operation is Display a flash status indicator (eg, 602a) indicating status (eg, the flash status indicator is maintained when not displayed in low light mode).

いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに排他的である(例えば、フラッシュ動作及び光キャプチャモードは、同時ではない(例えば、フラッシュ動作がアクティブであるとき、低光キャプチャモードは非アクティブであり、低光キャプチャモードがアクティブであるとき、フラッシュ動作は非アクティブである))。互いに排他的であるフラッシュ動作及び低光キャプチャモードは、デバイスのリソースをより効率的な方法で使用しているため、電子デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the state of flash operation and the state of low light capture mode are mutually exclusive (e.g., flash operation and light capture mode are not simultaneous (e.g., when flash operation is active, Low light capture mode is inactive and flash operation is inactive when low light capture mode is active)). The mutually exclusive flash operation and low light capture mode use the device's resources in a more efficient manner, thus reducing power usage and improving battery life of the electronic device.

いくつかの実施形態では、低光キャプチャモードの状態は、アクティブ状態(例えば、図26Hの602c)(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアキャプチャするように現在構成される状態))、利用可能状態(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、図26Bの602c)(例えば、デバイスが低光キャプチャモードでメディアキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))、並びに非アクティブ状態(例えば、図26Aの602cが不存在)(例えば、低光キャプチャモードが非アクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアをキャプチャするように現在構成されていない状態))からなる群から選択される。 In some embodiments, the state of the low light capture mode is an active state (e.g., 602c in FIG. 26H) (e.g., a state indicating that the low light capture mode is active (e.g., the device is capturing media). state currently configured to capture media in low-light capture mode on request), available state (e.g., state indicating that low-light capture mode is available (e.g., 602c in FIG. 26B)) Indicates that low-light capture mode is available (e.g., a state in which the device is not currently configured to capture media in low-light capture mode, but may be configured to capture media in low-light mode). , a state that cannot be manually turned on or off by the user (e.g., the low-light capture mode indicator was first (recently) displayed, or the device made a decision to display the low-light capture mode indicator, so the device not configured to capture media in light capture mode or not capturing media in low light capture mode)), as well as an inactive state (e.g., absence of 602c in FIG. 26A) (e.g., low light capture mode is inactive (e.g., the device is not currently configured to capture media in low-light capture mode in response to a request to capture media). be.

いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たしている間に、かつ1つ以上のカメラの視野内の光量が第3の所定の範囲内(適度に低光(例えば、20~10ルクス)、フラッシュ範囲の外側)にあるとの判定に従って、フラッシュ状態インジケータは、フラッシュ動作の状態(例えば、メディアをキャプチャする際にフラッシュが発生する可能性がある操作性)が利用可能であることを示す(例えば、図26Bの602c)。 In some embodiments, the amount of light within the field of view of the one or more cameras is within a third predetermined range (moderate (e.g., 20-10 lux), outside the flash range), the flash status indicator indicates the state of the flash operation (e.g., flash may occur when capturing media). operability) is available (eg, 602c in FIG. 26B).

いくつかの実施形態では、キャプチャ持続時間を調整するコントロールは、第1のコントロールである。いくつかの実施形態では、フラッシュ状態インジケータは、フラッシュ動作の状態が利用可能であることを示している間に(例えば、図26Bの602c)、電子デバイスは、低光キャプチャ状態インジケータの選択を受信する。いくつかの実施形態では、低光キャプチャ状態インジケータの選択を受信したことに応じて、電子デバイスは、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、図26B~図26Cの602c)。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応じて、かつフラッシュ状態インジケータが、フラッシュモードの状態が自動であることを示すとの判定に従って、電子デバイスは、フラッシュモードの状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新し、(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定された)キャプチャ持続時間を調整する第2のコントロール(例えば、スライダ)を表示する。いくつかの実施形態では、調整可能なコントロールは、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the control that adjusts the capture duration is the first control. In some embodiments, the electronic device receives a selection of the low light capture status indicator while the flash status indicator indicates that the status of flash operation is available (eg, 602c in FIG. 26B). do. In some embodiments, in response to receiving the selection of the low light capture state indicator, the electronic device updates the low light capture state indicator to indicate that the state of the low light capture mode is active. (eg, 602c in FIGS. 26B-26C). In some embodiments, in response to receiving a selection of the capture low light capture status indicator and in response to determining that the flash status indicator indicates that the status of the flash mode is automatic, the electronic device flashes Update the flash status indicator to indicate that the mode state is inactive, and the capture duration (measured in time (e.g. total capture time, exposure time), number of pictures/frames) Display a second control (eg, a slider) to adjust. In some embodiments, the adjustable control includes tick marks, each tick mark representing the value of the adjustable control.

いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス未満などの所定の範囲)内にあるとの判定に従って、第1の低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、第1のキャプチャ持続時間の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)を含む。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス超などの所定の範囲)内にないとの判定に従って、第1の低光キャプチャ状態インジケータは、第1のキャプチャ持続時間(例えば、図26Eの602c)の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間ホイール)を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, the first low-light output is determined in accordance with determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range (eg, a predetermined range such as less than 1 lux). A capture state indicator (eg, 602c in FIG. 26H) includes a first visual representation of the first capture duration (eg, text indicating the first capture duration). In some embodiments, following a determination that ambient light within the field of view of one or more cameras is not within a fourth predetermined range (eg, a predetermined range such as greater than 1 lux), the first low-light The capture state indicator is the first visual representation (eg, text indicating the first capture duration) of the first capture duration (eg, 602c in FIG. 26E) (or the control set to the second capture duration). does not include a second capture duration wheel) that displays an indication that the In some embodiments, when the ambient light within the field of view of the one or more cameras changes, the electronic device may: Automatically re-evaluate whether to display a visual representation of the first capture duration (or the second capture duration).

いくつかの実施形態では、1つ以上のカメラの視野内の光量を検出したことに応じて、かつ1つ以上のカメラの視野内の光量が低光環境基準を満たすとの判定に従って、電子デバイスは、1つ以上のカメラの視野内の周辺光が第3の所定の範囲内(例えば、1ルクスなどの閾値未満)にあるとの判定に従って、低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))こと、及び第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)をむことを示し;1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス~10ルクスなどの範囲)内にあるとの判定に従って、低光キャプチャ状態インジケータ(例えば、図26Eの602c)は、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含まず;1つ以上のカメラの視野内の周辺光が第5の所定の範囲(例えば、10~20ルクスなどの範囲)内にあるとの判定に従って、低光キャプチャ状態インジケータが、低光キャプチャモードの状態が利用可能である(例えば、図26Bの602c)ことを示し、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含む低光キャプチャ状態インジケータと、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含まない低光キャプチャ状態インジケータと、低光キャプチャモードの状態が利用可能である(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))低光キャプチャ状態インジケータとは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光モードの状態が利用可能であることを示す低光キャプチャモードは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲にあるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting the amount of light within the field of view of one or more cameras and in accordance with determining that the amount of light within the field of view of the one or more cameras meets low light environment criteria, the electronic device emits a low light capture status indicator (eg, 602c in FIG. 26H) upon determining that ambient light within the field of view of one or more cameras is within a third predetermined range (eg, below a threshold such as 1 lux). ) indicates that the state of low-light capture mode is active (e.g., a state indicating that low-light capture mode is active (e.g., the device captures media in low-light capture mode in response to a request to capture media). state currently configured to capture)), and a second visual representation of the first capture duration (e.g., “5 seconds”); within the field of view of one or more cameras; Upon determining that the ambient light is within a fourth predetermined range (eg, 1 lux to 10 lux, etc.), the low light capture status indicator (eg, 602c in FIG. 26E) indicates the status of the low light capture mode. is active and does not include a second visual representation (e.g., "5 seconds") of the first capture duration; (eg, a range of 10-20 lux, etc.), the low light capture status indicator indicates that the status of the low light capture mode is available (eg, 602c in FIG. 26B), a low light capture state indicator indicating that the state of the light capture mode is active and including a second visual representation of a first capture duration; a low-light capture state indicator that does not include a second visual representation of the capture duration of and the state of the low-light capture mode is available (e.g., a state indicating that the low-light capture mode is available (e.g., the device is not currently configured to capture media in low light capture mode, but may be configured to capture media in low light mode), indicating that low light capture mode is available; A state that cannot be manually turned on or off by the user (e.g., the low-light capture mode indicator was displayed first (recently), or because the device made a decision to display the low-light capture mode indicator, not configured to capture media in low-light capture mode or not capturing media in low-light capture mode)) and low-light capture status indicators are visually distinct from each other (e.g., displayed color, Different textures, thicknesses, letters, or markings (e.g., strikethrough to indicate inactivity), with or without a visual representation of the capture duration). In some embodiments, the low-light capture mode that indicates low-light mode status is available does not include a visual representation of the capture duration (eg, the third capture duration). By displaying a visual representation of the capture duration within the low-light condition indicator when predetermined conditions are met, the electronic device can be used to detect when the capture duration is outside the normal range for the capture duration. capture media, providing feedback to the user on the current state of the capture duration. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. An electronic device configured to capture media while in a low light mode by displaying a low light condition indicator without a visual representation when predetermined conditions are met without cluttering the user interface , to provide feedback to the user on which capture duration to use for capturing media in the normal range of capture durations. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. By displaying a low-light capture status indicator that indicates a low-light condition when predetermined conditions are met, the user is prompted to capture media in low-light mode, but in low-light mode (e.g., user configurable (via input) to quickly recognize that an electronic device is not configured to capture media, and the user, in response to receiving a request to capture media, To quickly understand that an electronic device does not operate according to a low light mode. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

方法2100に関して上述された処理(例えば、図21A~図21C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2300、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 21A-21C) described above with respect to method 2100 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2100. Optionally includes one or more of the characteristics of various methods. For the sake of brevity, these details are not repeated below.

図22A~図22AMは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図23A~図23Bにおける処理を含む、以下で説明する処理を例示するために使用される。 22A-22AM illustrate exemplary user interfaces for editing captured media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 23A-23B.

図22Aは、メディアビューワユーザインタフェースを表示する電子デバイス600を示す。メディアビューワユーザインタフェースは、編集アフォーダンス644a及びキャプチャされたメディア(例えば、写真)の表現2230aを含む。表現2230aを表示している間に、デバイス600は、ポートレートカメラモード(例えば、ボケ及び/又は照明効果が適用されているモード)が有効化されていた間に(例えば、シャッターボタン610のアクティブ化により、デバイス600が図8Hに示すように、ポートレートモードで構成されている間に、キャプチャされたメディアが深度情報を含む)、表現2230aによって表されたキャプチャされたメディアが以前にキャプチャされたと判定する。更には、判定に応じて、デバイス600は、ポートレート画像状態インジケータ644gを表示する。換言すれば、ポートレート画像状態インジケータ644gは、表現2230aがポートレート画像の表現であると示す。 FIG. 22A shows electronic device 600 displaying a media viewer user interface. The media viewer user interface includes editing affordances 644a and representations 2230a of captured media (eg, photographs). While displaying representation 2230a, device 600 may be in a portrait camera mode (e.g., a mode in which bokeh and/or lighting effects are applied) while activated (e.g., activation of shutter button 610). By default, the captured media represented by representation 2230a was previously captured (including depth information) while device 600 was configured in portrait mode, as shown in FIG. 8H. I judge that. Further, in response to the determination, device 600 displays portrait image status indicator 644g. In other words, portrait image status indicator 644g indicates that representation 2230a is that of a portrait image.

図22Aでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2250aを検出する。タップジェスチャ2250aを検出したことに応じて、図22Bに示すように、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える。図22Bに示すように、メディア編集ユーザインタフェースは、図22Aにおいて表現2230aに対応する表現2230bを含む。すなわち、表現2230bは、任意の調整なしに、表現2230aとして以前にキャプチャされたメディアと同じ表現を示す。メディア編集ユーザインタフェースはまた、インジケータ領域602及びコントロール領域606を含む。図22Aでは、コントロール領域606の一部分は、表現2230b上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。いくつかの実施形態では、インジケータ領域602は、表現2230b上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。 In FIG. 22A, device 600 detects tap gesture 2250a at a location corresponding to editing affordance 644a. In response to detecting tap gesture 2250a, device 600 replaces the media viewer user interface with a media editing user interface, as shown in FIG. 22B. As shown in Figure 22B, the media editing user interface includes representation 2230b, which corresponds to representation 2230a in Figure 22A. That is, representation 2230b shows the same representation as the media previously captured as representation 2230a, without any adjustments. The media editing user interface also includes indicator area 602 and control area 606 . In FIG. 22A, a portion of control region 606 is superimposed over representation 2230b and optionally includes a colored (eg, gray, translucent) overlay. In some embodiments, indicator region 602 overlays representation 2230b and optionally includes a colored (eg, gray, translucent) overlay.

コントロール領域606は、編集モードアフォーダンス2210を含み、編集モードアフォーダンス2210には、ポートレートメディア編集モードアフォーダンス2210a、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。ポートレートメディア編集モードアフォーダンス2210aは、メディア編集モードアフォーダンスのタイプである。すなわち、ポートレートメディア編集モードアフォーダンス2210aは、編集されている特定のタイプのキャプチャされたメディアに対応する。メディア編集アフォーダンスが選択されると、デバイス600は、特定のタイプのメディアを編集するように設計された特定の1組の編集ツールを表示する。図22Aでは、デバイス600は、ポートレート画像(例えば、深度情報を含むメディアに基づく)に対応する表現2230bを判定し、それに応答して、ポートレートメディア編集モードアフォーダンス2210aを表示する。ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aによって示されるように、ポートレートメディア編集モードアフォーダンス2210aが選択されるため、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を表示する。いくつかの実施形態では(例えば、図22AE~図22AL)、デバイス600がアニメーション化された画像メディア又はビデオメディアなどの異なるタイプのメディアに対応する表現を判定するときに、デバイス600は、(例えば、1つ以上の)異なるタイプのメディア編集アフォーダンス(例えば、図22AIのビデオメディア編集モードアフォーダンス2210f)を表示する。選択されると、異なるタイプのメディア編集アフォーダンスは、デバイス600に、ポートレートメディア編集ツールアフォーダンス2212とは異なる特定の1組のツールアフォーダンス(例えば、ビデオメディアアフォーダンス2222)を表示させる。いくつかの実施形態では、デバイス600は、キャプチャされたメディアが、それぞれのタイプのメディアを編集するための対応する特定の1組の編集ツールを有さないタイプのメディアに対応すると判定する。更には、それに応答して、デバイス600は、それぞれのタイプのメディアを編集するメディア編集アフォーダンスを表示せず、代わりに、それぞれのタイプのメディアに固有の(例えば、対応する)編集ツールを表示せずに、編集モードアフォーダンス2210b~2210dを表示する。 Control region 606 includes edit mode affordances 2210, including portrait media edit mode affordances 2210a, visual feature edit mode affordances 2210b, filter edit mode affordances 2210c, and image content edit mode affordances 2210d. Portrait media editing mode affordance 2210a is a type of media editing mode affordance. That is, portrait media editing mode affordance 2210a corresponds to the particular type of captured media being edited. When a media editing affordance is selected, device 600 displays a specific set of editing tools designed to edit specific types of media. In FIG. 22A, device 600 determines a representation 2230b corresponding to a portrait image (eg, based on media containing depth information) and, in response, displays portrait media editing mode affordance 2210a. Device 600 displays portrait media editing tool affordance 2212 because portrait media editing mode affordance 2210a is selected, as indicated by mode selection indicator 2202a below portrait media editing mode affordance 2210a. In some embodiments (eg, FIGS. 22AE-22AL), when the device 600 determines representations corresponding to different types of media, such as animated image media or video media, the device 600 may (eg, , one or more) of different types of media editing affordances (eg, video media editing mode affordance 2210f of FIG. 22AI). When selected, different types of media editing affordances cause device 600 to display a particular set of tool affordances (eg, video media editing tool affordances 2222 ) that differ from portrait media editing tool affordances 2212 . In some embodiments, device 600 determines that the captured media corresponds to types of media that do not have a corresponding specific set of editing tools for editing each type of media. Further, in response, device 600 may not display media editing affordances for editing each type of media, but instead display editing tools specific (eg, corresponding) to each type of media. Instead, edit mode affordances 2210b-2210d are displayed.

図22Bでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250bを検出する。図22Cに示すように、タップジェスチャ2250bを検出したことに応じて、デバイス600は、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示し、ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aを表示することを停止する。視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示することにより、デバイス600が、ポートレート編集モードで動作するように構成されていることから、視覚特性編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250bを検出したことに応じて、デバイス600はまた、ポートレートメディア編集ツールアフォーダンス2212を、視覚特性編集ツールアフォーダンス2214に置き換える。ポートレートメディア編集ツールアフォーダンス2212を置き換えた後、視覚特性編集ツールアフォーダンス2214は、ポートレートメディア編集ツールアフォーダンス2212が図22Aで占有された、メディア編集ユーザインタフェースの一部分を最初に占有する。視覚特性編集ツールアフォーダンス2214は、自動視覚特性編集ツールアフォーダンス2214a、露出編集ツールアフォーダンス2214b、及び輝度編集ツールアフォーダンス2214cを含む。視覚特性編集ツールは、選択されると、デバイス600に、以下の図に示すように、表現の1つ以上の視覚特性を調整するユーザインタフェース要素を表示させる。 In FIG. 22B, device 600 detects tap gesture 2250b at a location corresponding to visual property edit mode affordance 2210b. As shown in FIG. 22C, in response to detecting tap gesture 2250b, device 600 displays mode selection indicator 2202b under visual characteristics editing mode affordance 2210b and mode selection under portrait media editing mode affordance 2210a. Stop displaying selection indicator 2202a. By displaying mode selection indicator 2202b below visual property editing mode affordance 2210b, device 600 is configured to operate in visual property editing mode because it is configured to operate in portrait editing mode. It indicates that it has changed to Furthermore, in response to detecting tap gesture 2250 b , device 600 also replaces portrait media editing tool affordance 2212 with visual property editing tool affordance 2214 . After replacing portrait media editing tool affordance 2212, visual property editing tool affordance 2214 initially occupies the portion of the media editing user interface that portrait media editing tool affordance 2212 occupied in FIG. 22A. Visual property editing tool affordances 2214 include automatic visual property editing tool affordances 2214a, exposure editing tool affordances 2214b, and brightness editing tool affordances 2214c. The visual property editing tool, when selected, causes device 600 to display user interface elements for adjusting one or more visual properties of the representation, as shown in the following figures.

図22Cに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250cを検出する。図22Dに示すように、タップジェスチャ2250cを検出したことに応じて、デバイス600は、自動的に(追加のユーザ入力なしで)、視覚特性編集ツールアフォーダンス2214a~2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。その結果、デバイス600は、メディアユーザインタフェースの左縁部に近接した自動視覚特性編集ツールアフォーダンス2214aと、自動視覚特性編集ツールアフォーダンス2214aの右隣の露出編集ツールアフォーダンス2214bと、露出編集ツールアフォーダンス2214bの右隣の輝度編集ツールアフォーダンス2214cと、を表示する。したがって、デバイス600は、輝度編集ツールアフォーダンス2214cが水平中心に表示されているが、視覚特性編集ツールアフォーダンス2214a~2214cの順番の表示を維持する。視覚特性編集ツールがデバイス600の水平中心に表示されているときに、デバイス600は、特定の編集ツールを介して調整される値に対応する表現の視覚特性を調整するように構成される。したがって、輝度編集ツールアフォーダンス2214cが図22Dのメディア編集ユーザインタフェースの中心にあるため、デバイス600は、表現2230bの輝度を調整するように構成される。更に、輝度編集ツールアフォーダンス2214cが選択されていることを示すために、デバイス600は、ツール選択インジケータ2204cを表示する。視覚特性編集ツールアフォーダンス2214a~2214cを動かすことに加えて、デバイス600はまた、図22Bに表示されていない2つの追加の視覚特性編集ツールアフォーダンス(それぞれ表示された、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214e)を表示する。図22Dに示すように、タップジェスチャ2250cを検出したことに応じて、デバイス600はまた、自動的に(追加のユーザ入力なしで)、調整可能な輝度コントロール2254cを表示する。調整可能な輝度コントロール2254cは、輝度コントロールインジケーション2254c1及び複数のティックマークを含むスライダであり、各ティックマークは、表現2230bの輝度を調整する値に対応する。輝度コントロールインジケーション2254c1は、調整可能な輝度コントロール2254c上の2つの連続した隣接するチケットマークの間にあるスライダ上の位置に表示される。調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置は、表現2230bの現在の輝度値に対応する。図22Dでは、デバイス600は、調整可能な輝度コントロール2254cに向けられたジェスチャ2250d(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。 As shown in FIG. 22C, device 600 detects tap gesture 2250c at a location corresponding to luminance editing tool affordance 2214c. As shown in FIG. 22D, in response to detecting tap gesture 2250c, device 600 automatically (without additional user input) slides visual property editing tool affordances 2214a-2214c to the left to allow media Display luminance editing tool affordance 2214c in the horizontal center of the editing user interface. As a result, the device 600 displays an automatic visual property editing tool affordance 2214a proximate the left edge of the media user interface, an exposure editing tool affordance 2214b to the right of the automatic visual property editing tool affordance 2214a, and an exposure editing tool affordance 2214b. Display the luminance editing tool affordance 2214c on the right side. Thus, device 600 maintains the sequential display of visual property editing tool affordances 2214a-2214c, although luminance editing tool affordance 2214c is displayed in the horizontal center. When a visual property editing tool is displayed in the horizontal center of device 600, device 600 is configured to adjust the visual property of the representation corresponding to the value adjusted via the particular editing tool. Thus, device 600 is configured to adjust the brightness of representation 2230b because brightness editing tool affordance 2214c is at the center of the media editing user interface of FIG. 22D. Additionally, device 600 displays tool selection indicator 2204c to indicate that luminance editing tool affordance 2214c is selected. In addition to moving visual property editing tool affordances 2214a-2214c, device 600 also provides two additional visual property editing tool affordances not shown in FIG. Display editing tool affordances 2214e). As shown in FIG. 22D, in response to detecting tap gesture 2250c, device 600 also automatically (without additional user input) displays adjustable brightness control 2254c. Adjustable brightness control 2254c is a slider that includes a brightness control indication 2254c1 and a plurality of tick marks, each tick corresponding to a value that adjusts the brightness of representation 2230b. Brightness control indication 2254c1 is displayed at a slider position between two consecutive adjacent ticket marks on adjustable brightness control 2254c. The position of brightness control indication 2254c1 on adjustable brightness control 2254c corresponds to the current brightness value of representation 2230b. In FIG. 22D, device 600 detects gesture 2250d (eg, left drag or swipe gesture) directed at adjustable brightness control 2254c.

図22Eに示すように、ジェスチャ2250dを検出したことに応じて、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上のジェスチャ2250dの接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な輝度コントロール2254cを強調する。具体的には、デバイス600は、調整可能な輝度コントロール2254cの表示を拡大及び暗色化し、これは、調整可能な輝度コントロール2254cのティックマーク及び輝度コントロールインジケーション2254c1を拡大することを含む。いくつかの実施形態では、調整可能な輝度コントロール2254cを強調することは、調整可能な輝度コントロール2254cをメディア編集ユーザインタフェースの残りの部分から更に区別することによって、調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1を介して、デバイス600のユーザが正確な輝度値を設定するのを助けるように試みる。いくつかの実施形態では、デバイス600は、調整可能な輝度コントロール2254cの部分(例えば、ティックマーク又は輝度コントロールインジケーション2254c1)の色(例えば、黒から赤)を変更することにより、調整可能な輝度コントロール2254cを強調する。いくつかの実施形態では、デバイス600は、コントロール領域606内の他のユーザインタフェース要素を強調することをやめることによって、調整可能な輝度コントロール2254cを強調する。他のユーザインタフェース要素を強調することをやめることは、焦点から外れたコントロール領域606の他の部分(例えば、調整可能な輝度コントロール2254cの下/上のエリア)を表示することを含む。図22Eでは、デバイス600は、ジェスチャ2250dのリフトオフ(例えば、接触の検出を停止する)を検出する。 As shown in FIG. 22E, in response to detecting gesture 2250d, device 600 detects contact of gesture 2250d on the touch-sensitive display of device 600 (eg, a finger while the touch remains on the touch-sensitive display of device 600), highlight adjustable brightness control 2254c. Specifically, device 600 enlarges and darkens the display of adjustable brightness control 2254c, which includes enlarging tick mark of adjustable brightness control 2254c and brightness control indication 2254c1. In some embodiments, emphasizing adjustable brightness control 2254c further distinguishes adjustable brightness control 2254c from the rest of the media editing user interface, thereby increasing the brightness on adjustable brightness control 2254c. Via control indication 2254c1, attempt to help the user of device 600 to set the correct brightness value. In some embodiments, device 600 adjusts the adjustable brightness by changing the color (eg, black to red) of a portion of adjustable brightness control 2254c (eg, tick mark or brightness control indication 2254c1). Highlight control 2254c. In some embodiments, device 600 emphasizes adjustable brightness control 2254c by de-emphasizing other user interface elements in control area 606. FIG. De-emphasizing other user interface elements includes displaying other portions of control region 606 out of focus (eg, areas below/above adjustable brightness control 2254c). In FIG. 22E, device 600 detects a liftoff (eg, stop detecting contact) of gesture 2250d.

図22Fに示すように、リフトオフのジェスチャ2250dを検出したことに応じて、デバイス600は、調整可能な輝度コントロール2254cを、強調することなく(例えば、図22Dにおいて強調なしで表示されるように)再表示する。更には、ジェスチャ2250dを検出したことに応じて、デバイス600は、ジェスチャ2250dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かす。図22Fでは、ジェスチャ2250dの大きさ及び方向により、デバイス600に、図22Dにおいて輝度コントロールインジケーション2254c1の位置よりも、調整可能な輝度コントロール2254c上の最右端のティックマーク(例えば、輝度の最大値)により近い輝度コントロールインジケーション2254c1の新しい位置を表示させる。輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、輝度コントロールインジケーション2254c1の表示を維持している間に、調整可能な輝度コントロール2254cのティックマークを左(例えば、ジェスチャ2250dの方向)に動かすことを含む。したがって、最右端のティックマークは、図22Dで表示されたところから、図22Fのメディア編集ユーザインタフェースの水平中心により近く表示されており、最右端のティックマークとメディア編集ユーザインタフェースの右縁部との間に追加の空間が残される。 As shown in FIG. 22F, in response to detecting lift-off gesture 2250d, device 600 un-emphasizes adjustable brightness control 2254c (eg, as shown un-emphasized in FIG. 22D). Redisplay. Further, in response to detecting gesture 2250d, device 600 may display brightness control indication 2254c1 with adjustable brightness based on the magnitude and direction (e.g., swipe speed, length) of gesture 2250d. Move to a new position on control 2254c. In Figure 22F, the magnitude and direction of gesture 2250d causes device 600 to move the rightmost tick mark (e.g., maximum brightness) on adjustable brightness control 2254c to the position of brightness control indication 2254c1 in Figure 22D. ) causes the new position of the closer brightness control indication 2254c1 to be displayed. Moving the brightness control indication 2254c1 to a new position on the adjustable brightness control 2254c moves the adjustable brightness control while maintaining the display of the brightness control indication 2254c1 in the center of the media editing user interface. Including moving the tick mark at 2254c to the left (eg, in the direction of gesture 2250d). Therefore, the rightmost tick mark is displayed closer to the horizontal center of the media editing user interface of FIG. 22F than it was displayed in FIG. Additional space is left between

加えて、ジェスチャ2250dを検出したことに応じて、デバイス600は、輝度編集ツールアフォーダンス2214cの周囲に輝度値インジケータ2244cを表示する。輝度値インジケータ2244cは、輝度編集ツールアフォーダンス2214cの上方中心(例えば、アナログ時計の12時の位置)で開始し、輝度編集ツールアフォーダンス2214cの周辺部の周りを輝度編集ツールアフォーダンス2214cの周りを半分と少し進んだ位置(例えば、アナログ時計の7時の位置)まで包む、円形ユーザインタフェース要素である。輝度値インジケータ2244cのサイズは、調整可能な輝度コントロール2254cの最大値(例えば、最右端のティックマーク)に対する調整可能な輝度コントロール2254cの現在値を示す。したがって、輝度コントロールインジケーション2254c1が新しい位置に変更されると、輝度値インジケータ2244cを更新して、輝度コントロールインジケーション2254c1の位置に基づいて、輝度編集ツールアフォーダンス2214cの周辺部を多少包含する。いくつかの実施形態では、輝度値インジケータ2244cは、特定の色(例えば、青)として表示される。更に、ジェスチャ2250dを検出したことに応じて、デバイス600は、輝度コントロールインジケーション2254c1の新しい位置に対応する輝度値に基づいて、表現2230bをデジタル的に調整する。輝度コントロールインジケーション2254c1の新しい位置は、図22Dの輝度コントロールインジケーション2254c1上の位置よりも最右端のティックマーク(例えば、輝度の最大値)に近いため、デバイス600は、表現2230bよりも明るい調整された表現2230cを表示する(又は表現2230bを更新する)。調整された表現2230cは、新たに調整された輝度値に基づいて、表示される。 Additionally, in response to detecting gesture 2250d, device 600 displays luminance value indicator 2244c around luminance editing tool affordance 2214c. The luminance value indicator 2244c starts at the upper center of the luminance editing tool affordance 2214c (eg, the 12 o'clock position on an analog clock) and extends halfway around the perimeter of the luminance editing tool affordance 2214c. A circular user interface element that wraps around to a slightly advanced position (eg, the 7 o'clock position on an analog clock). The size of brightness value indicator 2244c indicates the current value of adjustable brightness control 2254c relative to the maximum value of adjustable brightness control 2254c (eg, the rightmost tick mark). Accordingly, when brightness control indication 2254c1 is changed to a new position, brightness value indicator 2244c is updated to encompass more or less the periphery of brightness editing tool affordance 2214c based on the location of brightness control indication 2254c1. In some embodiments, luminance value indicator 2244c is displayed as a particular color (eg, blue). Further, in response to detecting gesture 2250d, device 600 digitally adjusts representation 2230b based on the luminance value corresponding to the new position of luminance control indication 2254c1. Because the new position of brightness control indication 2254c1 is closer to the rightmost tick mark (eg, maximum brightness) than the position on brightness control indication 2254c1 in FIG. display the rendered representation 2230c (or update the representation 2230b). An adjusted representation 2230c is displayed based on the newly adjusted luminance values.

図22Fでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250fを検出する。図22Gに示すように、タップジェスチャ2250fを検出したことに応じて、デバイス600は、調整された表現2230cを、表現2230bに置き換え、図22Eにおいて行われた調整を行わない。換言すれば、調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。調整可能な輝度コントロール2254cがメディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさないことを強調するために、デバイス600は、他の視覚特性編集ツールアフォーダンス2214(例えば、2214a、2214b、2214d、及び2214e)の表示を維持する(例えば、灰色に退色させない)間に、輝度編集ツールアフォーダンス2214c及び調整可能な輝度コントロール2254cを灰色に(例えば、又は半透明に見えるように)退色させる。更に、デバイス600はまた、輝度編集ツールアフォーダンス2214cの周りの輝度値インジケータ2244c、及びツール選択インジケータ2204cを表示することを停止する。図22Gに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cをオフにトグルし、新たに調整された輝度値に基づいて調整された(例えば、図22E)、調整された表現2230cを示す代わりに、表現2230bを、元の輝度値とともに示す(例えば、図22B)。図22Gでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250gを検出する。 In FIG. 22F, device 600 detects tap gesture 2250f at a location corresponding to luminance editing tool affordance 2214c. As shown in FIG. 22G, in response to detecting tap gesture 2250f, device 600 replaces adjusted representation 2230c with representation 2230b and does not make the adjustments made in FIG. 22E. In other words, the current value of adjustable brightness control 2254c (eg, the newly adjusted value in FIG. 22E) does not affect the representation displayed on the media editing user interface. To emphasize that the adjustable brightness control 2254c does not affect the representation being displayed on the media editing user interface, the device 600 may use other visual property editing tool affordances 2214 (e.g., 2214a, 2214b, 2214d , and 2214e) are faded to gray (eg, or appear translucent), while maintaining (eg, not fading to gray) the brightness editing tool affordance 2214c and adjustable brightness control 2254c. In addition, device 600 also stops displaying luminance value indicator 2244c around luminance editing tool affordance 2214c and tool selection indicator 2204c. As shown in FIG. 22G, device 600 toggles off luminance editing tool affordance 2214c, instead showing adjusted representation 2230c that has been adjusted based on the newly adjusted luminance value (eg, FIG. 22E). 2230b is shown with the original luminance values (eg, FIG. 22B). In FIG. 22G, device 600 detects tap gesture 2250g at a location corresponding to luminance editing tool affordance 2214c.

図22Hに示すように、タップジェスチャ2250gを検出したことに応じて、デバイス600は、輝度編集ツールアフォーダンス2214cをトグルオンして、調整された表現2230c、輝度編集ツールアフォーダンス2214c、調整可能な輝度コントロール2254c、ツール選択インジケータ2204c、輝度値インジケータ2244c、ツール選択インジケータ2204cを、図22Fに表示されているように再表示する。調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。いくつかの実施形態では、特定の編集ツールアフォーダンスをトグルオン(タップジェスチャ2250gを介して)又はトグルオフ(例えば、タップジェスチャ2250fを介して)することにより、デバイス600のユーザは、特定の編集ツールの特定の調整された値(例えば、調整された輝度値)がどの程度表現に影響するかを見ることができる。図22Hでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する位置でのタップジェスチャ2250hを検出する。 As shown in FIG. 22H, in response to detecting tap gesture 2250g, device 600 toggles on brightness editing tool affordance 2214c to provide adjusted expression 2230c, brightness editing tool affordance 2214c, and adjustable brightness control 2254c. , tool selection indicator 2204c, luminance value indicator 2244c, and tool selection indicator 2204c are redisplayed as displayed in FIG. 22F. The current value of adjustable brightness control 2254c (eg, the newly adjusted value in FIG. 22E) does not affect the representation displayed on the media editing user interface. In some embodiments, by toggling on (via tap gesture 2250g) or off (eg, via tap gesture 2250f) a particular editing tool affordance, the user of device 600 can specify a particular editing tool affordance. It is possible to see how much the adjusted value of (eg, the adjusted luminance value) affects the representation. In FIG. 22H, device 600 detects tap gesture 2250h at a location corresponding to automatic visual property editing tool affordance 2214a.

図22Iに示すように、タップジェスチャ2250hを検出したことに応じて、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換える。デバイス600はまた、自動視覚特性コントロールインジケーション2254a1の上にツール選択インジケータ2204aを表示する。デバイス600は、調整可能な自動視覚特性2254aを、調整可能な輝度コントロール2254cが図22Hにおいて表示されたのと同一のそれぞれの位置に表示する。置き換えを行うとき、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の、輝度コントロールインジケーション2254c1が図22Hにおいて調整可能な輝度コントロール2254c上に表示された位置とは異なる位置に表示する。図22Iに示すように、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a値(例えば、50%の自動視覚特性調整値)の中央値に対応する位置に表示し、この位置は、調整可能な輝度コントロール2254c(例えば、75%の輝度値)の最右端のティックマークにより近かった、図22Hにおける輝度コントロールインジケーション2254c1の位置とは異なる。特に、自動視覚特性コントロールインジケーション2254a1の位置は、図22Dにおける調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置に類似している(例えば、ジェスチャ2250dに応じて、調整可能な輝度コントロール2254cが最初に開始されたとき)。 As shown in FIG. 22I, in response to detecting tap gesture 2250h, device 600 causes display of adjustable brightness control 2254c and brightness control indication 2254c1 to display adjustable automatic visual characteristics control 2254a and automatic visual characteristics. Replace with the display of the control indication 2254a1. Device 600 also displays tool selection indicator 2204a above automatic visual property control indication 2254a1. Device 600 displays adjustable auto-visual properties 2254a in the same respective locations as adjustable brightness controls 2254c were displayed in FIG. 22H. When performing the replacement, device 600 places automatic visual characteristic control indication 2254a1 on adjustable automatic visual characteristic control 2254a at the position where brightness control indication 2254c1 was displayed on adjustable brightness control 2254c in FIG. 22H. displayed in a different position. As shown in FIG. 22I, device 600 displays automatic visual property control indication 2254a1 at a location corresponding to the median of the adjustable automatic visual property control 2254a values (eg, 50% automatic visual property adjustment value). However, this location differs from the location of brightness control indication 2254c1 in FIG. 22H, which was closer to the rightmost tick mark of adjustable brightness control 2254c (eg, a brightness value of 75%). In particular, the location of automatic visual property control indication 2254a1 is similar to the location of brightness control indication 2254c1 on adjustable brightness control 2254c in FIG. 2254c is first started).

いくつかの実施形態では、調整可能なコントロールが最初に開始されたとき、調整可能なコントロールのインジケーションは、調整可能なコントロールの中央の位置に表示される。いくつかの実施形態では、調整可能なコントロールの中央位置は、表示表現内で検出された値、又は自動調整アルゴリズムを介して計算された値に対応する(例えば、中央位置は、自動調整アルゴリズムに基づいて計算された75%の輝度の値に対応する)。更には、1つの調整可能なコントロール上の中央位置(例えば、75%の輝度値)は、別の調整可能なコントロール上の中央位置(例えば、64%の露出値)とは異なる値と等しくすることができる。いくつかの実施形態では、2つの調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)のスケールは、同一又は一貫している(例えば、同一の最小値及び最大値を有する、並びに/又は連続したティックマーク間を表す値の増分は、各スライダ上で同じである)。 In some embodiments, when the adjustable control is first initiated, the indication of the adjustable control is displayed in the middle position of the adjustable control. In some embodiments, the center position of the adjustable control corresponds to a value found within the display representation or calculated via an auto-tuning algorithm (e.g., the center position is determined by the auto-tuning algorithm). corresponding to a luminance value of 75% calculated based on ). Furthermore, a center position on one adjustable control (e.g. a brightness value of 75%) equals a different value than a center position on another adjustable control (e.g. an exposure value of 64%). be able to. In some embodiments, the scales of the two adjustable controls (e.g., adjustable automatic visual characteristics control 2254a and adjustable brightness control 2254c) are the same or consistent (e.g., the same minimum and The increment in value that has the maximum value and/or represents between successive tick marks is the same on each slider).

デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能な自動視覚特性コントロール2254aを表示するときに、調整可能な輝度コントロール2254c(例えば、中心の左にティックマーク)のいくつかの静的な部分の表示を、これらと同じそれぞれの位置に維持する。しかしながら、調整可能な輝度コントロール2254cのいくつかの可変部分(例えば、調整可能な輝度コントロール2254c上の中心の右に見える、インジケーション及び新しいティックマークの位置)は、これらと同じそれぞれの位置に維持されない。図22Iに示すように、デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能なコントロールのいくらかの部分を動かしながら(例えば、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、ディスプレイ上の輝度コントロールインジケーション2254c1とは別の位置に動かす)、それぞれの位置に調整可能な輝度コントロール2254cの中心の左にティックマークを維持する。 When the device 600 replaces the display of the adjustable brightness control 2254c with the display of the adjustable automatic visual property control 2254a, the device 600 replaces the display of the adjustable automatic visual property control 2254a with the adjustable The display of some static portions of the brightness control 2254c (eg, tick mark left of center) is kept in the same respective positions as these. However, some variable portions of adjustable brightness control 2254c (eg, the position of the indication and new tick mark visible to the right of center on adjustable brightness control 2254c) remain in their same respective positions. not. As shown in FIG. 22I, when device 600 replaces the display of adjustable brightness control 2254c with the display of adjustable automatic visual characteristics control 2254a, device 600 moves some portion of the adjustable control. while (e.g., the device 600 moves the automatic visual characteristic control indication 2254a1 to a different position on the display than the brightness control indication 2254c1) while ticking left of the center of the adjustable brightness control 2254c to each position. keep the mark.

図22Iに更に示すように、タップジェスチャ2250hを検出したことに応じて、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(例えば、図22Cに示すように、視覚特性編集モードアフォーダンス2210bが図22Bにおいてまず選択されたとき)。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示するために、デバイス600は、視覚特性編集ツールアフォーダンス2214a~2214fを左にスライドし、これにより、露出編集ツールアフォーダンス2214bは、メディア編集ユーザインタフェースの左に第2から最後のアフォーダンスとして表示され、輝度編集ツールアフォーダンス2214cは、メディア編集ユーザインタフェースの中心の左に最後のアフォーダンスとして表示される。更には、デバイス600は、メディア編集ユーザインタフェースが、輝度編集ツールアフォーダンス2214cの右隣の任意の追加の視覚特性編集ツールアフォーダンス2214を表示するための任意の追加の空間を有さないため、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214eを表示することを停止する。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示することは、デバイス600が、調整可能な自動視覚特性コントロール2254aの現在値が、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1の位置に対応する値に対応することに応じて、表示表現を調整するように構成されることを示す。 As further shown in FIG. 22I, in response to detecting tap gesture 2250h, device 600 displays automatic visual property editing tool affordance 2214a at the center of the media editing user interface (eg, as shown in FIG. 22C). , when the visual properties edit mode affordance 2210b was first selected in FIG. 22B). To display the automatic visual property editing tool affordance 2214a in the center of the media editing user interface, the device 600 slides the visual property editing tool affordances 2214a-2214f to the left such that the exposure editing tool affordance 2214b becomes the media Displayed as the second to last affordance to the left of the editing user interface, luminance editing tool affordance 2214c is displayed as the last affordance to the center left of the media editing user interface. Furthermore, device 600 does not have any additional space for displaying any additional visual property editing tool affordance 2214 right next to luminance editing tool affordance 2214c, so highlight Stop displaying editing tool affordance 2214d and shadow editing tool affordance 2214e. Displaying the automatic visual property editing tool affordance 2214a at the center of the media editing user interface indicates that the device 600 indicates that the current value of the adjustable automatic visual property control 2254a is the automatic visual property on the adjustable automatic visual property control 2254a. It indicates that the display representation is configured to be adjusted in response to corresponding values corresponding to the position of property control indication 2254a1.

輝度視覚特性に関連付けられた値のみに影響する(例えば、調整可能な輝度コントロール2254cによって制御された)、図22D~図22Gで論じられた調整可能な輝度コントロール2254cの現在値とは対照的に、調整可能な自動視覚特性コントロール2254aの現在値は、1つ以上の他の視覚特性の1つ以上の現在値(例えば、輝度及び露出値)に影響する。調整可能な自動視覚特性コントロール2254aの現在値が変化すると、デバイス600は、自動的に(追加のユーザ入力なしで)、1つ以上の他の視覚特性(例えば、他の視覚特性編集ツールアフォーダンス2214に対応する視覚特性)に対応する1つ以上の現在値を更新する。図22Iでは、調整可能な自動視覚特性コントロール2254aの現在値は、デバイス600がタップジェスチャ2250hを検出したことに応じて、変化する。その結果、デバイス600は、輝度値インジケータ2244cを更新して、図22Hにおいて包含された輝度値インジケータ2244cよりも、輝度編集ツールアフォーダンス2214cの周辺部をより少なく包含することによって、現在の調整された輝度値が減少したことを示す。更には、デバイス600は、周辺部露出編集ツールアフォーダンス2214bの周りに露出値インジケータ2244bを表示して、表示表現が現在の露出値(例えば、増加した露出値)によって調整されていることを示す。いくつかの実施形態では、デバイス600は、自動調整アルゴリズムを、表現2230c(例えば、以前に表示表現)及び調整可能な自動視覚特性コントロール2254aの現在値に対応するデータとともに使用することによって、1つ以上の他の視覚特性の現在値(例えば、輝度値又は露出値)を調整する。 In contrast to the current value of adjustable brightness control 2254c discussed in FIGS. 22D-22G, which affects only the value associated with the brightness visual property (eg, controlled by adjustable brightness control 2254c). , the current value of adjustable automatic visual property control 2254a affects the current value of one or more other visual properties (eg, brightness and exposure values). When the current value of adjustable automatic visual property control 2254a changes, device 600 automatically (without additional user input) sets one or more other visual properties (e.g., other visual property editing tool affordance 2214 Update one or more current values corresponding to visual characteristics corresponding to . In FIG. 22I, the current value of adjustable automatic visual property control 2254a changes in response to device 600 detecting tap gesture 2250h. As a result, device 600 updates luminance value indicator 2244c to include less of the periphery of luminance editing tool affordance 2214c than luminance value indicator 2244c included in FIG. Indicates that the luminance value has decreased. Additionally, the device 600 displays an exposure value indicator 2244b around the perimeter exposure editing tool affordance 2214b to indicate that the displayed representation has been adjusted by the current exposure value (eg, increased exposure value). In some embodiments, device 600 uses an auto-adjustment algorithm with data corresponding to representation 2230c (e.g., previously displayed representation) and current values of adjustable automatic visual property control 2254a to achieve one Adjust the current values of these other visual characteristics (eg, brightness or exposure values).

更に、タップジェスチャ2250hを検出したことに応じて、デバイス600は、表現2230cの表示を、調整された表現2230dに置き換える。表現2230dは、表現2230cの調整されたバージョンに対応し、ここで、表現2230cは、1つ以上の他の視覚特性に対応する1つ以上の更新された現在値(例えば、低下した輝度値又は増加した露出値)に基づいて調整された。図22Iに示すように、表現2230dは、視覚的により暗くなり、表現2230cよりも多く露出している。 Further, in response to detecting tap gesture 2250h, device 600 replaces the display of representation 2230c with adjusted representation 2230d. Representation 2230d corresponds to an adjusted version of representation 2230c, where representation 2230c corresponds to one or more updated current values (e.g., reduced luminance values or increased exposure value). As shown in FIG. 22I, representation 2230d is visually darker and more exposed than representation 2230c.

図22Bに戻ると、デバイス600がジェスチャ2250bを検出した後、いくつかの実施形態では、デバイス600は、図22Cの代わりに図22Iに表示する。その結果、調整可能な自動視覚特性コントロール2254aは、デバイス600に、1つ以上の他の視覚特性(例えば、露出及び/又は輝度値)の1つ以上の現在値を更新させ、かつ1つ以上の更新された現在値に基づいて、調整された表現(例えば、表現2230d)を表示させる。 Returning to FIG. 22B, after device 600 detects gesture 2250b, in some embodiments device 600 displays FIG. 22I instead of FIG. 22C. As a result, adjustable automatic visual property control 2254a causes device 600 to update one or more current values of one or more other visual properties (e.g., exposure and/or luminance values) and one or more An adjusted representation (eg, representation 2230d) is displayed based on the updated current value of .

図22Iに戻ると、デバイス600は、調整可能な自動視覚特性コントロール2254aに向けられたジェスチャ2250i(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Jに示すように、ジェスチャ2250iを検出したことに応じて、デバイス600は、(例えば、図22Eにおいてジェスチャ2250d及び調整可能な輝度コントロール2254cに関連して上述したような同様の技術を使用して)デバイス600がジェスチャ2250iの接触を検出し続けている間に、調整可能な自動視覚特性コントロール2254aを強調する。図22Jでは、デバイス600は、ジェスチャ2250iのリフトオフ(例えば、接触の検出を停止する)を検出する。 Returning to FIG. 22I, device 600 detects gesture 2250i (eg, right drag or swipe gesture) directed at adjustable automatic visual property control 2254a. As shown in FIG. 22J, in response to detecting gesture 2250i, device 600 uses similar techniques (eg, as described above in connection with gesture 2250d and adjustable brightness control 2254c in FIG. 22E). and) highlight adjustable automatic visual property control 2254a while device 600 continues to detect contact of gesture 2250i. In FIG. 22J, device 600 detects a liftoff (eg, stop detecting contact) of gesture 2250i.

図22Kに示すように、リフトオフのジェスチャ2250iを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254aを、強調することなく(例えば、図22Iにおいて強調なしで表示されるように)再表示し、ジェスチャ2250iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かす。図22Kでは、ジェスチャ2250iの大きさ及び方向により、デバイス600に、図22Iにおける自動視覚特性コントロールインジケーション2254a1の以前の位置よりも、調整可能な自動視覚特性コントロール2254aの最左端のティックマーク(例えば、自動視覚特性調整の最小値)により近い、調整可能な自動視覚特性コントロール2254a上の新しい位置に、自動視覚特性コントロールインジケーション2254a1を表示させる。自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、自動視覚特性コントロールインジケーション2254a1の表示を維持している間に、調整可能な自動視覚特性コントロールのティックマークを右(例えば、ジェスチャ2250iの方向)に動かすことを含む。その結果、最左端のティックマークは、図22Iで表示されたところから、図22Kのメディア編集ユーザインタフェースの中心により近く表示されており、最左端のティックマークとメディア編集ユーザインタフェースの左縁部との間に追加の空間が残される。 As shown in FIG. 22K, in response to detecting the lift-off gesture 2250i, the device 600 activates the adjustable automatic visual property control 2254a without highlighting (eg, as shown without highlighting in FIG. 22I). ), and based on the magnitude and direction of gesture 2250i (e.g., swipe speed, length), automatic visual property control indication 2254a1 to a new position on adjustable automatic visual property control 2254a. move. In FIG. 22K, the magnitude and direction of gesture 2250i causes device 600 to move the leftmost tick mark of adjustable automatic visual property control 2254a (e.g., , automatic visual property adjustment minimum) causes automatic visual property control indication 2254a1 to be displayed in a new position on adjustable automatic visual property control 2254a. Moving automatic visual property control indication 2254a1 to a new position on adjustable automatic visual property control 2254a while maintaining the display of automatic visual property control indication 2254a1 in the center of the media editing user interface. , including moving the tick mark of the adjustable automatic visual property control to the right (eg, in the direction of gesture 2250i). As a result, the leftmost tick mark is displayed closer to the center of the media editing user interface of FIG. 22K than it was displayed in FIG. Additional space is left between

自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かした後、デバイス600は、自動視覚特性コントロールインジケーション2254a1の位置に対応する更新された自動視覚特性調整値に対応するように、自動特性値インジケータ2244aを更新する。具体的には、デバイス600は、自動特性値インジケータ2244aを修正して、自動視覚特性編集ツールアフォーダンス2214aの周辺部をより少なく包含し、これは、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1をミラーリングする。更には、デバイス600は、これらのそれぞれのインジケータの周辺部をより少なく包含するように修正することによって、新しいより低い調整された露出及び輝度値に対応するように、露出値インジケータ2244b及び輝度値インジケータ2244cを更新し、これはまた、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1の移動をミラーリングする。いくつかの実施形態では、1つ以上の他の視覚特性の1つ以上の値に対応する1つ以上の値インジケータは、自動視覚特性コントロールインジケーション2254a1の移動の反対方向に、維持又は調整され得る。いくつかの実施形態では、1つ以上の視覚特性の値は、自動調整アルゴリズムに基づいて計算される。図22Kに示すように、ジェスチャ2250iのリフトオフを検出したことに応じて、デバイス600は、表現2230dの表示を、調整された表現2230eの表示に置き換え、表現2230eは、ジェスチャ2250iのリフトオフを検出したことに応じて調整された、更新された自動視覚特性調整値及び1つ以上の他の視覚特性値に基づいて、調整された表現2230dのバージョンである。 After moving automatic visual property control indication 2254a1 to a new position on adjustable automatic visual property control 2254a, device 600 displays the updated automatic visual property adjustment value corresponding to the position of automatic visual property control indication 2254a1. Update the automatic characteristic value indicator 2244a to correspond to . Specifically, device 600 modifies automatic property value indicator 2244a to encompass less of the periphery of automatic visual property editing tool affordance 2214a, which translates from higher automatic visual property adjustment values to lower automatic visual property adjustment values. Mirror automatic visual feature control indication 2254a1 moving from a position corresponding to the feature adjustment value. Further, device 600 modifies exposure value indicators 2244b and luminance values to accommodate the new lower adjusted exposure and luminance values by modifying to encompass less of the periphery of these respective indicators. Update indicator 2244c, which also mirrors movement of automatic visual characteristic control indication 2254a1 moving from a position corresponding to a higher automatic visual characteristic adjustment value to a lower automatic visual characteristic adjustment value. In some embodiments, one or more value indicators corresponding to one or more values of one or more other visual properties are maintained or adjusted in the opposite direction of movement of automatic visual property control indication 2254a1. obtain. In some embodiments, values for one or more visual properties are calculated based on an auto-tuning algorithm. As shown in FIG. 22K, in response to detecting liftoff of gesture 2250i, device 600 replaces display of representation 2230d with display of adjusted representation 2230e, which detected liftoff of gesture 2250i. A version of the adjusted representation 2230d based on the updated automatic visual property adjustment value and one or more other visual property values, optionally adjusted.

図22Lに示すように、デバイス600は、視覚特性編集ツールアフォーダンス2214が配置されているエリアに向けられたジェスチャ2250l(例えば、ドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250lを検出したことに応じて、図22Mに示すように、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上の接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な自動視覚特性コントロール2254aを強調することをやめる。具体的には、デバイス600は、ティックマーク及び自動視覚特性コントロールインジケーション2254a1を含む、調整可能な自動視覚特性コントロール2254aのサイズを低減する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254aを強調することをやめることは、デバイス600のユーザを、特定の編集ツールアフォーダンスにナビゲートするのを助けるように試みる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aの部分(例えば、ティックマーク又は自動視覚特性コントロールインジケーション2254a1)の色(例えば、黒から灰色)を変更することにより、調整可能な自動視覚特性コントロール2254aを強調することをやめる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aをぼかすこと、又は焦点から外れて調整可能な自動視覚特性コントロール2254aを表示することにより、調整可能な自動視覚特性コントロール2254aを強調することをやめる。 As shown in FIG. 22L, the device 600 detects gestures 2250l (eg, drag or swipe gestures) directed at the area where visual property editing tool affordances 2214 are located. In response to detecting gesture 2250l, device 600 continues to detect contact on the touch-sensitive display of device 600 (e.g., a finger contact is detected by device 600) as shown in FIG. 600), de-emphasize the adjustable automatic visual property control 2254a. Specifically, device 600 reduces the size of adjustable automatic visual property controls 2254a, including tick marks and automatic visual property control indications 2254a1. In some embodiments, de-emphasizing adjustable automatic visual property controls 2254a attempts to help the user of device 600 navigate to a particular editing tool affordance. In some embodiments, device 600 changes the color (eg, black to gray) of a portion of adjustable automatic visual property control 2254a (eg, tick mark or automatic visual property control indication 2254a1) to De-emphasize adjustable automatic visual property control 2254a. In some embodiments, the device 600 blurs the adjustable automatic visual property control 2254a or displays the adjustable automatic visual property control 2254a out of focus, thereby adjusting the adjustable automatic visual property control 2254a. stop emphasizing

図22Mでは、デバイス600は、ジェスチャ2250lのリフトオフ(例えば、接触の検出を停止する)を検出する。図22Nに示すように、ジェスチャ2250lのリフトオフを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254aを強調することをやめるのを停止する。デバイス600は、図22Lに表示されたように、自動視覚特性コントロール2254aを再表示する。更には、ジェスチャ2250lを検出したことに応じて、デバイス600は、ジェスチャ2250lの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、視覚特性編集ツールアフォーダンス2214を左にシフトする。図22Nでは、ジェスチャ2250lの大きさ及び方向により、デバイス600に、視覚特性編集ツールアフォーダンス2214f~2214iを表示させ、視覚特性編集ツールアフォーダンス2214a~2214eを表示することを停止させる。特に、視覚特性編集ツールアフォーダンス2214f~2214iはまた、各それぞれのアフォーダンスの周りに値インジケータ2244f~2244iを含む。デバイス600は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことに応じて、図22J~図22Kにおいて調整された値インジケータ2244f~2244iを表示する。 In FIG. 22M, device 600 detects a liftoff (eg, stop detecting contact) of gesture 2250l. As shown in FIG. 22N, in response to detecting liftoff of gesture 2250l, device 600 stops de-emphasizing adjustable automatic visual property control 2254a. Device 600 redisplays automatic visual property controls 2254a, as displayed in FIG. 22L. Further, in response to detecting gesture 2250l, device 600 shifts visual property editing tool affordance 2214 to the left based on the magnitude and direction (e.g., swipe speed, length) of gesture 2250l. . In FIG. 22N, the magnitude and direction of gesture 2250l causes device 600 to display visual property editing tool affordances 2214f-2214i and stop displaying visual property editing tool affordances 2214a-2214e. In particular, visual property editing tool affordances 2214f-2214i also include value indicators 2244f-2244i around each respective affordance. Device 600 adjusts value indicators 2244f-2244i in FIGS. 22J-22K in response to device 600 moving automatic visual property control indication 2254a1 to a new position on adjustable automatic visual property control 2254a. indicate.

図22Nでは、デバイス600は、ビネット編集ツールアフォーダンス2214iに対応する位置でのタップジェスチャ2250nを検出する。図22Oに示すように、タップジェスチャ2250nを検出したことに応じて、デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示を、調整可能なビネットコントロール2254iの表示に置き換え、調整可能な自動視覚特性コントロール2254aを表示することを停止する。図22Oでは、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換えることに関して図22Iにおいて上述したものと同様の技術を使用して、この置き換えを実行する。図22Oにおいて、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254iの中央に対応する位置に表示する。 In FIG. 22N, device 600 detects tap gesture 2250n at a location corresponding to vignette editing tool affordance 2214i. As shown in FIG. 22O, in response to detecting tap gesture 2250n, device 600 causes display of adjustable automatic visual property control 2254a and automatic visual property control indication 2254a1 to display adjustable vignette control 2254i. to stop displaying adjustable automatic visual property controls 2254a. 22O, device 600 replaces the display of adjustable brightness control 2254c and brightness control indication 2254c1 with the display of adjustable automatic visual property control 2254a and automatic visual property control indication 2254a1 described above in FIG. 22I. We perform this replacement using techniques similar to those used for In FIG. 22O, device 600 displays vignette control indication 2254i1 at a position corresponding to the center of adjustable vignette control 2254i.

図22Oでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250o(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250oを検出したことに応じて、図22P~図22Qに示すように、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254i上の新しい位置に動かし、図22D~図22Fに関連して上述したようなものと類似の技術を使用して、調整された表現2230fを調整する。表現2230fは、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の新しい位置での値に対応する新しいビネット値に基づいて調整された。図22Qに示すように、表現2230fは、図22Pに関して表現2230eにおける犬の周りに表示されたビネット効果よりも、犬の周りに表示されたより顕著なビネット効果を含む。 In FIG. 22O, device 600 detects gesture 2250o (eg, left drag or swipe gesture) directed at adjustable vignette control 2254i. In response to detecting gesture 2250o, device 600 moves vignette control indication 2254i1 to a new position on adjustable vignette control 2254i, as shown in FIGS. Adjusted representation 2230f is adjusted using techniques similar to those described above in connection therewith. Representation 2230f has been adjusted based on new vignette values corresponding to the values at the new positions of vignette control indications 2254i1 on adjustable vignette controls 2254i. As shown in FIG. 22Q, representation 2230f includes a more pronounced vignette effect displayed around the dog than the vignette effect displayed around the dog in representation 2230e with respect to FIG. 22P.

図22Qに示すように、最右端のティックマーク又は最左端のティックマークは、(例えば、図22Fに表示されている最右端のティックマーク及び図22Kに表示されている最左端のティックマークとは対照的に)図22Qに表示されない。したがって、調整可能なビネットコントロール2254i上の新しい位置は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O~図22P)に近い。調整可能なビネットコントロール2254i上の新しい位置が、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O~図22P)に比較的近いため、デバイス600は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置に、ビネットリセットインジケーション2252i2を表示する。図22Qでは、ビネットコントロールインジケーション2254i1の以前の位置は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に(ジェスチャ2250iの大きさ及び方向に基づいて)動かした後に計算された値に対応する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1を調整することにより、調整可能なビネットコントロール2254i上のビネットリセットインジケーション2252i2の位置を変更することができる。いくつかの実施形態では、ビネットリセットインジケーション2252i2により、ユーザは、自動調整アルゴリズムに基づいて計算された視覚特性の値をリセットすることができる。いくつかの実施形態では、上述の調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)に関して、リセットインジケーションはまた、ジェスチャ2250d又は2250iを検出している間に表示される。しかしながら、ジェスチャ2250d又は2250iのリフトオフを検出した後に、上述のインジケーションが最左端又は最右端のティックマークに近い位置で終了したため、リセットインジケーションは、図22F及び図22Kには表示されない。 As shown in FIG. 22Q, the rightmost tick mark or the leftmost tick mark may be (for example, the rightmost tick mark displayed in FIG. 22F and the leftmost tick mark displayed in FIG. 22K in contrast) is not shown in FIG. 22Q. Thus, the new position on adjustable vignette control 2254i is closer to the previous position (eg, FIGS. 22O-22P) of vignette control indication 2254i1 on adjustable vignette control 2254i. Because the new position on adjustable vignette control 2254i is relatively close to the previous position of vignette control indication 2254i1 on adjustable vignette control 2254i (eg, FIGS. 22O-22P), device 600 can A vignette reset indication 2252i2 is displayed in the previous position of vignette control indication 2254i1 on vignette control 2254i. In FIG. 22Q, the previous position of vignette control indication 2254i1 indicates that device 600 has moved automatic visual property control indication 2254a1 to a new position on adjustable automatic visual property control 2254a (based on the magnitude and direction of gesture 2250i). ) corresponds to the value computed after moving. In some embodiments, adjusting auto visual property control indication 2254a1 on adjustable auto visual property control 2254a may change the position of vignette reset indication 2252i2 on adjustable vignette control 2254i. can. In some embodiments, the vignette reset indication 2252i2 allows the user to reset the values of the visual properties calculated based on the automatic adjustment algorithm. In some embodiments, with respect to the adjustable controls described above (e.g., adjustable automatic visual properties control 2254a and adjustable brightness control 2254c), the reset indication also resets while detecting gesture 2250d or 2250i. to be displayed. However, the reset indication is not displayed in FIGS. 22F and 22K because the above indication ended near the leftmost or rightmost tick mark after detecting the liftoff of gesture 2250d or 2250i.

図22Qでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250q(例えば、ジェスチャ2250oの反対方向のドラッグ又はスワイプジェスチャ)を検出する。図22Rに示すように、2250qの大きさ及び方向に基づいて、デバイス600は、ビネットリセットインジケーション2252i2が図22Qに表示された位置に、ビネットコントロールインジケーション2254i1を表示する。ビネットリセットインジケーション2252i2が表示された位置に、ビネットコントロールインジケーション2254i1が表示されると、デバイス600は、触覚出力2260aを発する。更には、ビネットコントロールインジケーション2254i1が、ビネットリセットインジケーション2252i2が図22Qで表示された位置(又は図22Oにおけるその初期位置)に表示されるため、デバイス600は、調整された表現2230e(ビネットコントロールインジケーション2254i1の現在の位置に対応する値に基づいて調整された)及びビネットコントロールインジケーション2244iを、22Oに当初表示されていたように再表示する。 In FIG. 22Q, device 600 detects gesture 2250q directed at adjustable vignette control 2254i (eg, a drag or swipe gesture in the opposite direction of gesture 2250o). Based on the magnitude and orientation of 2250q, device 600 displays vignette control indication 2254i1 at the location where vignette reset indication 2252i2 was displayed in FIG. 22Q, as shown in FIG. 22R. When vignette control indication 2254i1 is displayed where vignette reset indication 2252i2 was displayed, device 600 emits haptic output 2260a. Furthermore, because vignette control indication 2254i1 is displayed at the position where vignette reset indication 2252i2 was displayed in FIG. 22Q (or its initial position in FIG. 22O), device 600 displays adjusted representation 2230e (vignette control indication 2254i1) and vignette control indication 2244i as originally displayed at 22O.

図22Rでは、デバイス600は、フィルタ編集モードアフォーダンス2210cに対応する位置でのタップジェスチャ2250rを検出する。図22Sに示すように、タップジェスチャ2250rを検出したことに応じて、デバイス600は、視覚特性編集アフォーダンス2214を、フィルタ編集ツールアフォーダンス2216に置き換える。デバイス600はまた、フィルタ編集モードアフォーダンス2210cの下にモード選択インジケータ2202cを表示し、モード選択インジケータ2202cは、デバイス600が、視覚特性編集モードで動作するように構成されていることから、フィルタリング編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250rを検出したことに応じて、デバイス600は、ビネットコントロールインジケーション2254i1を表示することを停止する。更には、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールを表示することを停止する。 In FIG. 22R, device 600 detects tap gesture 2250r at a location corresponding to filter edit mode affordance 2210c. In response to detecting tap gesture 2250r, device 600 replaces visual property editing affordance 2214 with filter editing tool affordance 2216, as shown in FIG. 22S. The device 600 also displays a mode selection indicator 2202c below the filter edit mode affordance 2210c, the mode selection indicator 2202c indicating that the device 600 is configured to operate in the visual property edit mode, thus the filter edit mode. to indicate that it has been configured to work with Further, in response to detecting tap gesture 2250r, device 600 stops displaying vignette control indication 2254i1. Additionally, because no-filter editing tool affordance 2216a is selected (eg, indicated as "NONE"), device 600 stops displaying adjustable controls.

図22Sでは、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cに対応する位置でのタップジェスチャ2250sを検出する。図22Tに示すように、タップジェスチャ2250sを検出したことに応じて、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cが選択されていることを示す(例えば、「NONE」を「DRAMATIC」に置き換える)。更には、デバイス600は、調整可能なドラマチックフィルタコントロール2256c及びドラマチックフィルタコントロールインジケーション2256c1を表示する。デバイス600は、調整可能なコントロール2254a、2254c、及び/又は2254iに関連して上述したような、調整可能なドラマチックフィルタコントロール2256c(及び他の調整可能なフィルタコントロール)に向けられた入力を検出したことに応じて、同様の技術を使用する。更には、タップジェスチャ2250sを検出したことに応じて、デバイス600は、表現2230gを表示し、ここで、図22Uの表現2230eは、調整可能なドラマチックフィルタコントロール2256c上のドラマチックフィルタコントロールインジケーション2256c1の初期位置に対応する値に基づいて調整された。 In FIG. 22S, device 600 detects tap gesture 2250s at a location corresponding to dramatic filter editing tool affordance 2216c. As shown in FIG. 22T, in response to detecting tap gesture 2250s, device 600 indicates that dramatic filter editing tool affordance 2216c is selected (eg, replaces "NONE" with "DRAMATIC"). Additionally, device 600 displays adjustable dramatic filter control 2256c and dramatic filter control indication 2256c1. Device 600 has detected input directed to adjustable dramatic filter control 2256c (and other adjustable filter controls) as described above with respect to adjustable controls 2254a, 2254c, and/or 2254i. Use similar techniques as appropriate. Further, in response to detecting tap gesture 2250s, device 600 displays representation 2230g, where representation 2230e of FIG. Adjusted based on the value corresponding to the initial position.

図22Tでは、デバイス600は、調整可能なドラマチックフィルタコントロール2256cに向けられたジェスチャ2250t(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Uに示すように、ジェスチャ2250tを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。デバイス600は、ジェスチャ2250tの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ドラマチックフィルタコントロールインジケーション2256c1を、調整可能なドラマチックフィルタコントロール2256c上の新しい位置に動かす。ジェスチャ2250tの大きさ及び方向により、デバイス600に、図22Tにおける調整可能なドラマチックフィルタコントロール2256cの以前の位置よりも、調整可能なドラマチックフィルタコントロール2256cの最左端のティックマーク(例えば、最小値)により近い新しい位置に、フィルタコントロールインジケーション2256c1を表示させる。更には、デバイス600は、表現2230gの表示を、調整された表現2230hの表示に置き換え、ここで、表現2230gは、調整可能なドラマチックフィルタコントロール2256c上のフィルタコントロールインジケーション2256c1の新しい位置に対応する値に基づいて調整された。示すように、図22Uにおいて、デバイス600は、(例えば、図22Tにおける)ドラマチックフィルタコントロールインジケーション2256c1の以前の位置よりも、ドラマチックフィルタコントロールインジケーション2256c1の新しい位置がより低い値に関連付けられている(例えば、ドラマチックフィルタの最小値に対応する最左端のティックマークにより近い)ため、図22Tにおける表現2230gのドラマチックフィルタよりも、ドラマチックフィルタが少ない(例えば、水平線の数が少ない)表現2230hを表示する。更には、ドラマチックフィルタ編集ツールアフォーダンス2216cの周りには、値インジケータは表示されない。 In FIG. 22T, device 600 detects gesture 2250t (eg, right drag or swipe gesture) directed at adjustable dramatic filter control 2256c. As shown in FIG. 22U, in response to detecting gesture 2250t, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. Device 600 moves dramatic filter control indication 2256c1 to a new position on adjustable dramatic filter control 2256c based on the magnitude and direction (eg, swipe speed, length) of gesture 2250t. The magnitude and direction of gesture 2250t causes device 600 to move the leftmost tick mark (eg, minimum value) of adjustable dramatic filter control 2256c over its previous position in FIG. 22T. At the near new location, cause the filter control indication 2256c1 to be displayed. Additionally, device 600 replaces the display of representation 2230g with the display of adjusted representation 2230h, where representation 2230g corresponds to the new position of filter control indication 2256c1 on adjustable dramatic filter control 2256c. value adjusted. As shown in FIG. 22U, the device 600 has associated a lower value for the new position of the dramatic filter control indication 2256c1 than the previous position of the dramatic filter control indication 2256c1 (eg, in FIG. 22T). Display representation 2230h with fewer dramatic filters (eg, fewer horizontal lines) than the dramatic filter of representation 2230g in FIG. 22T (eg, closer to the leftmost tick mark corresponding to the minimum value of the dramatic filter) . Additionally, no value indicators are displayed around the dramatic filter editing tool affordance 2216c.

図22Uでは、デバイス600は、フィルタなし編集ツールアフォーダンス2216aに対応する位置でのタップジェスチャ2250uを表示する。図22Vに示すように、タップジェスチャ2250uを検出したことに応じて、デバイス600は、フィルタなし編集ツールアフォーダンス2216aが選択されていることを示す(例えば、「DRAMATIC」を「NONE」に置き換える)。図22Sに関連して上述したように、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールを表示することを停止する。加えて、デバイス600は、表現2230hの表示を、表現2230eの表示に置き換え、ここで、表現2230eは、任意のフィルタに基づいて調整されない(例えば、図22Vの表現2230eに表示されたフィルタを表す水平線がない)。したがって、表現2230eは、任意のフィルタを使用して、調整可能なフィルタコントロールを介して、表現2230eを調整する前に、図22Sに表示された表現と同じである。 In FIG. 22U, device 600 displays tap gesture 2250u at a location corresponding to unfiltered editing tool affordance 2216a. As shown in FIG. 22V, in response to detecting tap gesture 2250u, device 600 indicates that unfiltered editing tool affordance 2216a is selected (eg, replaces "DRAMATIC" with "NONE"). As described above in connection with FIG. 22S, device 600 stops displaying adjustable controls because no-filter editing tool affordance 2216a is selected (eg, indicated as "NONE"). Additionally, device 600 replaces the display of representation 2230h with the display of representation 2230e, where representation 2230e is not adjusted based on any filters (e.g., represents the filter displayed in representation 2230e of FIG. 22V). no horizontal line). Thus, the representation 2230e is the same representation displayed in FIG. 22S before any filters were used to adjust the representation 2230e via the adjustable filter controls.

図22Vでは、デバイス600は、ポートレートメディアモード編集アフォーダンス2210aに対応する位置でのタップジェスチャ2250vを検出する。図22Wに示すように、タップジェスチャ2250vを検出したことに応じて、デバイス600は、ポートレートメディア編集モードアフォーダンス2210aの下にモード選択インジケータ2202aを表示し、フィルタ編集モードアフォーダンス2210cの下のモード選択インジケータ2202cを表示することを停止する。モード選択インジケータ2202aによって示されるように、デバイス600は、ポートレート編集モードで動作するように構成され、これにより、デバイス600はまた、インジケータ領域602内にf値(例えば、数値)のインジケーションを(例えば、図8Hに開示されているのと同様の技術を使用して)提供する、f値インジケータ602eを表示する。更には、タップジェスチャ2250vを検出したことに応じて、デバイス600は、フィルタ編集ツールアフォーダンス2216を、ポートレートメディア編集ツールアフォーダンス2212に置き換える。いくつかの実施形態では、ポートレートメディア編集ツールアフォーダンス2212は、照明効果コントロール628に対応し;したがって、デバイス600は、照明効果コントロール628に関連して図6S~図6Uにおいて上述したものと同様の技術を使用して、ポートレートメディア編集ツールアフォーダンス2212に関連する機能を実行する。 In FIG. 22V, device 600 detects tap gesture 2250v at a location corresponding to portrait media mode editing affordance 2210a. As shown in FIG. 22W, in response to detecting tap gesture 2250v, device 600 displays mode selection indicator 2202a under portrait media editing mode affordance 2210a and mode selection under filter editing mode affordance 2210c. Stop displaying indicator 2202c. Device 600 is configured to operate in portrait editing mode, as indicated by mode selection indicator 2202 a , whereby device 600 also displays an f-value (eg, numeric) indication within indicator area 602 . Display f-value indicator 602e provided (eg, using a technique similar to that disclosed in FIG. 8H). Further, in response to detecting tap gesture 2250v, device 600 replaces filter editing tool affordance 2216 with portrait media editing tool affordance 2212 . In some embodiments, portrait media editing tool affordance 2212 corresponds to lighting effects control 628; technology is used to perform the functions associated with the portrait media editing tool affordance 2212 .

図22Wに示すように、デバイス600は、自然光編集ツールアフォーダンス2212aの上に照明選択インジケータ2212a1を示し、これは、自然光編集ツールアフォーダンス2212aが選択されていることを示す。図22Sで上述したようなフィルタなし編集ツールアフォーダンス2216aと同様に、自然光編集ツールアフォーダンス2212aが選択されているため、デバイス600は、表現2230eにおいて自然光を使用して動作するように構成される。換言すれば、調整可能な美白効果は、表現2230eを調整するために使用されないため、デバイス600は、(また、図6R~図6Qの照明効果コントロール628に関連して上述した)自然照明効果を調整するために調整可能に表示しない。図22Wでは、デバイス600は、ジェスチャ2250w(例えば、押圧ジェスチャ)を検出する。 As shown in FIG. 22W, device 600 shows lighting selection indicator 2212a1 above natural light editing tool affordance 2212a, indicating that natural light editing tool affordance 2212a is selected. Similar to unfiltered editing tool affordance 2216a as described above in FIG. 22S, device 600 is configured to operate using natural light in representation 2230e because natural light editing tool affordance 2212a is selected. In other words, since the adjustable whitening effect is not used to adjust the representation 2230e, the device 600 uses the natural lighting effect (also described above in connection with the lighting effect control 628 of FIGS. 6R-6Q). Do not display adjustable to adjust. In FIG. 22W, device 600 detects gesture 2250w (eg, a press gesture).

図22Xに示すように、デバイス600は、水平線で表示されているポートレートメディア編集ツールアフォーダンス2212の表示を、弓で表示されているポートレートメディア編集ツールアフォーダンス2212の表示に遷移させる。自然光編集ツールアフォーダンス2212aが選択されているため、自然光編集ツールアフォーダンス2212aは、弓の上部又は上部(例えば、メディア編集ユーザインタフェースの中央)に表示され、ポートレートメディア編集ツールアフォーダンス2212b~2212eは、自然光編集ツールアフォーダンス2212aの右にカスケードダウンして表示される。図22Xでは、デバイス600は、接触(例えば、タッチ感知ディスプレイとの指接触)の中断なしで、ジェスチャ2250wの移動を検出する。 As shown in FIG. 22X, the device 600 transitions the display of the portrait media editing tool affordance 2212 displayed with a horizontal line to the display of the portrait media editing tool affordance 2212 displayed with a bow. Since natural light editing tool affordance 2212a is selected, natural light editing tool affordance 2212a is displayed above or above the bow (eg, in the center of the media editing user interface), and portrait media editing tool affordances 2212b-2212e are natural light It is displayed cascading down to the right of the editing tool affordance 2212a. In FIG. 22X, device 600 detects movement of gesture 2250w without interruption of contact (eg, finger contact with touch-sensitive display).

図22Yに示すように、ジェスチャ2250wの移動を検出しているデバイス600に応じて、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を左のある位置に動かす。ポートレートメディア編集ツールアフォーダンス2212を動かした後、スタジオ照明編集ツールアフォーダンス2212bは、弓の上部に表示され、自然光編集ツールアフォーダンス2212aは、スタジオ照明編集ツールアフォーダンス2212bの左に表示され、かつポートレートメディア編集ツールアフォーダンス2212c~2212eは、スタジオ照明編集ツールアフォーダンス2212bの右にカスケードダウンして表示される。特定の視覚特性編集ツールアフォーダンスが中心にあるかどうかに関係なく、タップジェスチャに基づいて選択された視覚特性編集ツールアフォーダンス2214とは対照的に、ポートレートメディア編集ツールアフォーダンス2212は、デバイス600がタップジェスチャを特定のメディア編集アフォーダンスに対応する位置で検出したかどうかにかかわらず、中心に選択される。いくつかの実施形態では、特定のポートレートメディア編集ツールアフォーダンスは、視覚特性編集ツールアフォーダンス2214を選択するための同様の技術を使用して、タップジェスチャを介して選択される。 In response to device 600 detecting movement of gesture 2250w, device 600 moves portrait media editing tool affordance 2212 to a position to the left, as shown in FIG. 22Y. After moving portrait media editing tool affordance 2212, studio lighting editing tool affordance 2212b appears above the bow, natural lighting editing tool affordance 2212a appears to the left of studio lighting editing tool affordance 2212b, and portrait media Editing tool affordances 2212c-2212e are displayed cascading down to the right of studio lighting editing tool affordance 2212b. In contrast to visual property editing tool affordance 2214, which is selected based on a tap gesture regardless of whether the particular visual property editing tool affordance is centered, portrait media editing tool affordance 2212 is selected when device 600 taps. Whether or not the gesture is detected at a location corresponding to a particular media editing affordance is selected to the center. In some embodiments, a particular portrait media editing tool affordance is selected via a tap gesture using similar techniques for selecting visual property editing tool affordances 2214 .

図22Yに示すように、デバイス600は、スタジオ照明編集ツールアフォーダンス2212bの上に照明選択インジケータ2212b1を表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示す。同時に、デバイス600は、自然光編集ツールアフォーダンス2212aの上に、照明選択インジケータ2212a1を表示することを停止する。スタジオ照明編集ツールアフォーダンス2212bが選択されているため、デバイス600は、スタジオ照明コントロールインジケーション2252b1を有する調整可能なスタジオ照明コントロール2252bを表示する。図22Wにおいて自然光編集ツールアフォーダンス2212aが選択された場合とは対照的に、スタジオ照明編集ツールアフォーダンス2212bであるため、デバイス600は、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。照明状態インジケータ602fは、図6R~図6Uに関連して上述したものと同様の技術を使用して、以下の図で動作する。照明状態インジケータ602fは、充填されている(例えば、黒として示される)照明状態インジケータ602fを作り上げている9つの電球の約半分及び充填されていない(例えば、白として示される)9つの電球の半分で表示される。充填された9つの電球の半分を示すことは、ほぼ50%のスタジオ照明値に等しい位置で表示されているスタジオ照明コントロールインジケーション2252b1の位置に対応する。コントロール領域606において、デバイス600はまた、照明インジケータ2262aを表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが表示されることを示す。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な照明コントロールを調整することに向けられたジェスチャを受信すると、照明値(例えば、スタジオ照明値)に基づいて、表現2230eを調整するように構成される。 As shown in FIG. 22Y, device 600 displays lighting selection indicator 2212b1 above studio lighting editing tool affordance 2212b, indicating that studio lighting editing tool affordance 2212b is selected. At the same time, device 600 stops displaying lighting selection indicator 2212a1 over natural lighting editing tool affordance 2212a. Because studio lighting editing tool affordance 2212b is selected, device 600 displays adjustable studio lighting controls 2252b with studio lighting control indications 2252b1. Device 600 displays lighting condition indicator 602f in indicator region 602 because of studio lighting editing tool affordance 2212b, as opposed to when natural lighting editing tool affordance 2212a is selected in FIG. 22W. The lighting state indicator 602f includes an indication of the current value of lighting effects to be used/applied in capturing media. Lighting status indicator 602f operates in the following figures using techniques similar to those described above with respect to Figures 6R-6U. Lighting status indicator 602f is about half of the nine bulbs making up lighting status indicator 602f being filled (eg, shown as black) and half of the nine bulbs being unfilled (eg, shown as white). is displayed. Showing half of nine bulbs filled corresponds to the position of studio lighting control indication 2252b1 being displayed at a position equal to approximately a studio lighting value of 50%. In control area 606, device 600 also displays lighting indicator 2262a, which indicates that studio lighting editing tool affordance 2212b is displayed. When lighting indicator 2262a is displayed, device 600 may adjust representation 2230e based on lighting values (eg, studio lighting values) upon receiving a gesture directed to adjusting an adjustable lighting control. configured to

図22Yでは、デバイス600は、ジェスチャ2250wのリフトオフを検出する。図22Zに示すように、ジェスチャ2250wのリフトオフを検出したことに応じて、デバイス600は、水平線におけるポートレートメディア編集ツールアフォーダンス2212の表示を、ポートレートメディア編集ツールアフォーダンス2212の表示に再表示する。図22Yでは、スタジオ照明編集ツールアフォーダンス2212bが選択されているため、スタジオ照明編集ツールアフォーダンス2212bは、メディア編集ユーザインタフェースの中心に表示される。更には、「STUDIO」は、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示すために表示される。いくつかの実施形態では、スタジオ照明編集ツールアフォーダンス2212bは、調整可能な照明効果コントロール666として同一の調整可能なコントロールであり、デバイス600は、上の図6S~図6Uで論じられたように、デバイス600を使用して、調整可能な照明効果コントロール666を介して機能を実行する、スタジオ照明編集ツールアフォーダンス2212bを介して、機能を実行するために同様の技術を使用する。 In FIG. 22Y, device 600 detects liftoff of gesture 2250w. In response to detecting the liftoff of gesture 2250w, device 600 redisplays the display of portrait media editing tool affordance 2212 in a horizontal line to the display of portrait media editing tool affordance 2212, as shown in FIG. 22Z. In FIG. 22Y, studio lighting editing tool affordance 2212b is selected, so studio lighting editing tool affordance 2212b is displayed in the center of the media editing user interface. Additionally, "STUDIO" is displayed to indicate that studio lighting editing tool affordance 2212b is selected. In some embodiments, studio lighting editing tool affordance 2212b is the same adjustable control as adjustable lighting effects control 666, and device 600, as discussed above in FIGS. Similar techniques are used to perform functions via studio lighting editing tool affordances 2212b, which perform functions via adjustable lighting effects controls 666 using device 600.

図22Zでは、デバイス600は、調整可能なスタジオ照明コントロール2252bに向けられたジェスチャ2250z(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22AAに示すように、ジェスチャ2250zを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。図22AAに示すように、デバイス600は、スタジオ照明コントロールインジケーション2252b1を、調整可能なスタジオ照明コントロール2252b上の新しい位置(例えば、最右端のティックマーク)に動かす。新しい位置(例えば、最右端のティックマーク)は、スタジオ照明調整値の最大値に対応する。その結果、デバイス600は、表現2230iを表示し、ここで、表現2230eは、調整可能なスタジオ照明コントロール2252b上のスタジオ照明コントロールインジケーション2252b1の位置に対応する新しい値(例えば、最大スタジオ照明調整)に基づいて調整された。例えば、表現2230iは、表現2230eよりも犬を取り囲む光がより多い。更には、デバイス600はまた、その最大値に設定されている調整可能なスタジオ照明コントロール2252bに対応する、充填されている9つの電球全てを示すように、照明状態インジケータ602fを更新する。特に、デバイス600は、f値インジケータ602eに、値1.4を表示し続ける。図2AAでは、デバイス600は、f値インジケータ602eに対応する位置でのタップジェスチャ2250aaを検出する。図22ABに示すように、タップジェスチャ2250aaを検出したことに応じて、デバイス600は、調整可能なスタジオ照明コントロール2252b及びスタジオ照明コントロールインジケーション2252b1の表示を、調整可能なスタジオ照明深度コントロール2252bb及びスタジオ照明深度コントロールインジケーション2252bb1の表示に置き換える。図22ABでは、スタジオ照明深度コントロールインジケーション2252bb1は、調整可能なスタジオ照明深度コントロール2252bb上の、f値インジケータ602e(例えば、1.4)として表示された深度値に対応する位置に表示される。更には、デバイス600はまた、照明インジケータ2262aの表示を、深度インジケータ2262bの表示に置き換える。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な深度コントロールに向けられたジェスチャを受信すると、深度値(例えば、スタジオ照明深度値)に基づいて、表現2230iを調整するように構成される。 In FIG. 22Z, device 600 detects gesture 2250z (eg, left drag or flick gesture) directed at adjustable studio lighting control 2252b. As shown in FIG. 22AA, in response to detecting gesture 2250z, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. As shown in FIG. 22AA, device 600 moves studio lighting control indication 2252b1 to a new position (eg, rightmost tick mark) on adjustable studio lighting control 2252b. The new position (eg, the rightmost tick mark) corresponds to the maximum studio lighting adjustment value. As a result, device 600 displays representation 2230i, where representation 2230e is a new value (e.g., maximum studio lighting adjustment) corresponding to the position of studio lighting control indication 2252b1 on adjustable studio lighting control 2252b. adjusted based on For example, representation 2230i has more light surrounding the dog than representation 2230e. Additionally, the device 600 also updates the lighting status indicator 602f to show all nine bulbs filled, corresponding to the adjustable studio lighting control 2252b being set to its maximum value. In particular, device 600 continues to display a value of 1.4 on f-value indicator 602e. In FIG. 2AA, device 600 detects a tap gesture 2250aa at a location corresponding to f-value indicator 602e. As shown in FIG. 22AB, in response to detecting tap gesture 2250aa, device 600 causes display of adjustable studio lighting controls 2252b and studio lighting control indication 2252b1 to display adjustable studio lighting depth controls 2252bb and studio lighting control indications 2252b. It is replaced with the display of illumination depth control indication 2252bb1. In FIG. 22AB, studio lighting depth control indication 2252bb1 is displayed on adjustable studio lighting depth control 2252bb at a location corresponding to the depth value displayed as f-number indicator 602e (eg, 1.4). Furthermore, device 600 also replaces the display of illumination indicator 2262a with the display of depth indicator 2262b. When lighting indicator 2262a is displayed, device 600 is configured to adjust representation 2230i based on a depth value (e.g., studio lighting depth value) upon receiving a gesture directed at the adjustable depth control. be.

図22ABでは、デバイス600は、調整可能なスタジオ照明深度コントロール2252bbに向けられたジェスチャ2250ab(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22ACに示すように、ジェスチャ2250abを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。図22ACに示すように、デバイス600は、スタジオ照明深度コントロールインジケーション2252bb1を、調整可能なスタジオ照明深度コントロール2252bb上の新しい位置(例えば、最右端のティックマークに向かって)に動かす。その結果、デバイス600は、表現2230jを表示し、ここで、図22ABの表現2230iは、調整可能なスタジオ照明深度コントロール2252bb上のスタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値に基づいて調整された。例えば、表現2230jは、表現2230iよりも視覚的により深度が高い(例えば、暗色化すされた木及びテーブル)。更には、デバイス600はまた、f値インジケータ602eを、スタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値(例えば、3.4)に更新する。特に、デバイス600は、図22ABに表示されたように、照明状態インジケータ602fを表示し続ける。図22ACでは、デバイス600は、完了アフォーダンス1036cに対応する位置でのタップジェスチャ2250acを検出する。図22ADに示すように、タップジェスチャ2250acを検出したことに応じて、デバイス600は、表現2230jとともにメディアビューワインタフェースを表示する。デバイス600は、表現2230jを保存することによって、以前に表示された表現2230aに作成された修正を保存する。図22AE~図22ALは、アニメーション化された画像メディア(例えば、図22AE~図22AH)及びビデオメディア(例えば、図22AI~図22AL)を編集するように構成されているデバイス600を示す。具体的には、図22AE~図22ALは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。 In FIG. 22AB, device 600 detects gesture 2250ab (eg, left drag or flick gesture) directed at adjustable studio lighting depth control 2252bb. As shown in FIG. 22AC, in response to detecting gesture 2250ab, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. As shown in FIG. 22AC, device 600 moves studio lighting depth control indication 2252bb1 to a new position (eg, toward the rightmost tick mark) on adjustable studio lighting depth control 2252bb. As a result, device 600 displays representation 2230j, where representation 2230i of FIG. 22AB is based on the new value corresponding to the position of studio lighting depth control indication 2252bb1 on adjustable studio lighting depth control 2252bb adjusted. For example, representation 2230j is visually more deep (eg, darkened trees and tables) than representation 2230i. Additionally, device 600 also updates f-number indicator 602e to a new value (eg, 3.4) corresponding to the location of studio lighting depth control indication 2252bb1. In particular, device 600 continues to display lighting status indicator 602f as displayed in FIG. 22AB. In FIG. 22AC, device 600 detects tap gesture 2250ac at a location corresponding to completion affordance 1036c. As shown in FIG. 22AD, in response to detecting tap gesture 2250ac, device 600 displays a media viewer interface with representation 2230j. Device 600 saves modifications made to previously displayed representation 2230a by saving representation 2230j. Figures 22AE-22AL show a device 600 configured to edit animated image media (eg, Figures 22AE-22AH) and video media (eg, Figures 22AI-22AL). Specifically, FIGS. 22AE-22AL show that the media editing user interface displays similar user interface elements when device 600 is configured to edit animated image media and video image media. indicates

図22AEに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2230kを表示する。表現2280kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する。アニメーション化された画像メディアアフォーダンス2220は、アニメーション化された画像メディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、サムネイル表現2220k)を含む。図22AEでは、サムネイル表現2220kが選択されているため、サムネイル表現2220kは、表現2280kに対応し、ここで、表現2280kは、サムネイル表現2220kの拡大バージョンである。図22AEでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250aeを検出する。図22AFに示すように、タップジェスチャ2250aeを検出したことに応じて、デバイス600は、アニメーション化された画像メディア内の表現2280k(又はサムネイル表現2220k)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、視覚特性編集ツールアフォーダンス2214に置き換え、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを、図22Cに関連して論じられるものと同様の技術を使用して表示する。図22AFでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する位置でのタップジェスチャ2250afを検出する。 As shown in FIG. 22AE, device 600 displays a representation 2230k of the captured animated image media. Because representation 2280k is an animated representation of image media, device 600 displays animated image media edit mode affordance 2210e. Animated image media editing mode affordance 2210e is selected, as indicated by mode selection indicator 2202a below animated image media editing mode affordance 2210e, so device 600 can access animated image media editing mode affordance 2210e. 2220 is displayed. Animated image media affordances 2220 include thumbnail representations (eg, thumbnail representations 2220k) of frames of content corresponding to different times within the animated image media. In FIG. 22AE, thumbnail representation 2220k is selected, so thumbnail representation 2220k corresponds to representation 2280k, where representation 2280k is an enlarged version of thumbnail representation 2220k. In FIG. 22AE, device 600 detects tap gesture 2250ae at a location corresponding to visual property edit mode affordance 2210b. As shown in FIG. 22AF, in response to detecting tap gesture 2250ae, device 600 places a scrubber indication control at a position corresponding to the position of representation 2280k (or thumbnail representation 2220k) in the animated image media. Scrubber 2240 is displayed with 2240a. Additionally, device 600 replaces animated image media affordance 2220 with visual property editing tool affordance 2214, and mode selection indicator 2202b under visual property editing mode affordance 2210b, as discussed in connection with FIG. 22C. display using techniques similar to In FIG. 22AF, device 600 detects tap gesture 2250af at a location corresponding to automatic visual property editing tool affordance 2214a.

図22AGでは、タップジェスチャ2250afを検出したことに応じて、デバイス600は、メディア編集ユーザインタフェースの中心に、(図22Iに示したように)自動視覚特性編集ツールアフォーダンス2214aを表示する。デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1を更に表示する。更には、タップジェスチャ2250afを検出したことに応じて、デバイス600は、(例えば、露出値インジケータ2244bが周辺部露出編集ツールアフォーダンス2214bの周囲に表示されることによって示されるように)図22Iに関連して上述したようなものと類似の技術を使用して、他の視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整する。更に、タップジェスチャ2250agを検出したことに応じて、デバイス600は、表現2280kを、表現2280lに置き換える。デバイス600は、視覚特性編集ツールアフォーダンス2214に対応する調整された現在値に基づいて、表現2280lを表示する。図22AGでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ag(例えば、右向きドラッグジェスチャ)を検出する。 In FIG. 22AG, in response to detecting tap gesture 2250af, device 600 displays automatic visual property editing tool affordance 2214a (as shown in FIG. 22I) in the center of the media editing user interface. Device 600 also displays adjustable automatic visual property control 2254a and automatic visual property control indication 2254a1. Further, in response to detecting the tap gesture 2250af, the device 600 may (eg, as indicated by the exposure value indicator 2244b being displayed around the peripheral exposure editing tool affordance 2214b) associated with FIG. 22I. and adjust the current value of one or more of the other visual property editing tool affordances 2214 using techniques similar to those described above. Further, in response to detecting tap gesture 2250ag, device 600 replaces expression 2280k with expression 2280l. Device 600 displays representation 2280 l based on the adjusted current values corresponding to visual property editing tool affordances 2214 . In FIG. 22AG, the device 600 detects a gesture 2250ag directed toward the scrubber 2240 (eg, right drag gesture).

図22AHに示すように、ジェスチャ2250agを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AGのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250agを検出したことに応じて、デバイス600は、表現2280lを、表現2280lに置き換える。表現2280lは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2280mは、図22AGにおいて表現2280lが対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図22AFに示すように、表現2280kを表示している間に、デバイス600が視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整して、表現2280lを表示したが、表現2280mはまた、視覚特性編集ツールアフォーダンス2214の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の視覚特性に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。 In response to detecting gesture 2250ag, device 600 moves scrubber indication control 2240a to a new position on scrubber 2240, as shown in FIG. 22AH. Specifically, device 600 moves scrubber indication control 2240a to a new position to the right of the position of scrubber indication control 2240a in FIG. 22AG. Further, in response to detecting gesture 2250ag, device 600 replaces expression 2280l with expression 2280l. Representation 2280 l shows one of the animated images at a time corresponding to the new position of scrubber indication control 2240 a on scrubber 2240 . Representation 2280m thus corresponds to a different time in the animated image media than the time in the animated image media to which representation 2280l corresponds in FIG. 22AG. As shown in FIG. 22AF, while displaying representation 2280k, device 600 adjusted one or more current values of visual property editing tool affordances 2214 to display representation 2280l, but representation 2280m also: Adjusted based on one or more adjusted current values of visual property editing tool affordances 2214 . Therefore, adjusting one of the representations in the animated image media at a particular point in time also adjusts the other representations in the animated image media at different points in time. Therefore, even if the animated image media representation is not displayed while the device 600 is adjusting one or more current values associated with one or more visual characteristics, the user can use the scrubber 2240 can be used to view changes to the representation after adjusting one or more current values.

上述のように、図22AI~図22ALは、ビデオメディアを編集するように構成されたデバイス600を示す。図22AIに示すように、デバイス600は、キャプチャされたビデオメディアの表現2282nを表示する。表現2282nがビデオメディアの表現であるため、デバイス600は、ビデオメディア編集モードアフォーダンス2210fを表示する。ビデオメディア編集モードアフォーダンス2210fの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、ビデオメディアアフォーダンス2222を表示する。ビデオメディアアフォーダンス2222は、ビデオメディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、表現2222n)を含む。したがって、ビデオメディアアフォーダンス2222は、アニメーション化された画像メディアアフォーダンス2220と同様である。サムネイル表現2220nが選択されているため、サムネイル表現2220nは、サムネイル表現2220nの拡大バージョンである、表現2282nに対応する。図22AIでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する位置でのタップジェスチャ2250aiを検出する。 As mentioned above, Figures 22AI-22AL illustrate a device 600 configured to edit video media. As shown in FIG. 22AI, device 600 displays a representation 2282n of captured video media. Because representation 2282n is a representation of video media, device 600 displays video media editing mode affordance 2210f. Device 600 displays video media editing mode affordance 2222 because animated image media editing mode affordance 2210e is selected, as indicated by mode selection indicator 2202a below video media editing mode affordance 2210f. Video media affordances 2222 include thumbnail representations (eg, representations 2222n) of frames of content corresponding to different times in the video media. Thus, video media affordance 2222 is similar to animated image media affordance 2220 . Since thumbnail representation 2220n is selected, thumbnail representation 2220n corresponds to representation 2282n, which is an enlarged version of thumbnail representation 2220n. In FIG. 22AI, device 600 detects tap gesture 2250ai at a location corresponding to visual property edit mode affordance 2210b.

図22AJに示すように、タップジェスチャ2250aiを検出したことに応じて、デバイス600は、ビデオメディア内の表現2282n(又はサムネイル表現2220n)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。特に、デバイス600は、デバイスがビデオ編集モードで動作するように構成されるとき、及びデバイスがアニメーション化された画像メディアモードで動作するように構成される(例えば、図22AF)とき、スクラバ2240を表示する。図22AJでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する位置でのタップジェスチャ2250ajを検出する。図22AKでは、タップジェスチャ2250ajを検出したことに応じて、デバイス600は、自動的に(追加のユーザ入力なしで)動き、図22Cにおいて上述のように、同様の技術を使用して、視覚特性編集ツールアフォーダンス2214a~2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。デバイス600はまた、自動的に(追加のユーザ入力なしで)(例えば、調整可能な輝度コントロール2254cに向けられたジェスチャなしで)、調整可能な輝度コントロール2254c上の位置に輝度コントロールインジケーション2254c1を表示する。更に、タップジェスチャ2250ajを検出したことに応じて、デバイス600は、表現2282nを、表現2282oに置き換える。デバイス600は、(例えば、輝度コントロールインジケーション2254c1の位置に対応する)調整可能な輝度コントロール2254cの現在値に基づいて、表現2282oを表示する。図22AKでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ak(例えば、右向きドラッグジェスチャ)を検出する。 As shown in FIG. 22AJ, in response to detecting tap gesture 2250ai, device 600 places scrubber 2240 with scrubber indication control 2240a at a location corresponding to the location of representation 2282n (or thumbnail representation 2220n) in the video media. display. In particular, the device 600 activates the scrubber 2240 when the device is configured to operate in video editing mode and when the device is configured to operate in animated image media mode (e.g., FIG. 22AF). indicate. In FIG. 22AJ, device 600 detects tap gesture 2250aj at a location corresponding to luminance editing tool affordance 2214c. In FIG. 22AK, in response to detecting tap gesture 2250aj, device 600 moves automatically (without additional user input) and uses similar techniques as described above in FIG. Slide editing tool affordances 2214a-2214c to the left to display luminance editing tool affordance 2214c in the horizontal center of the media editing user interface. Device 600 also automatically (without additional user input) (e.g., without a gesture directed at adjustable brightness control 2254c) places brightness control indication 2254c1 at a position over adjustable brightness control 2254c. indicate. Further, in response to detecting tap gesture 2250aj, device 600 replaces representation 2282n with representation 2282o. Device 600 displays representation 2282o based on the current value of adjustable brightness control 2254c (eg, corresponding to the position of brightness control indication 2254c1). In FIG. 22AK, the device 600 detects a gesture 2250ak directed toward the scrubber 2240 (eg, right drag gesture).

図22ALに示すように、ジェスチャ2250akを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AKのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250akを検出したことに応じて、デバイス600は、表現2282oを、表現2282pに置き換える。表現2282pは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のビデオメディアのフレームのうちの1つを示す。したがって、表現2282pは、図22AKにおいて表現2282oが対応するビデオメディア内の時間とは異なる、ビデオメディア内の時間に対応する。図22ALに示すように、表現2282nを表示している間に、デバイス600が現在の輝度値を調整して、表現2282oを表示したが、表現2282pはまた、調整された輝度値に基づいて調整された。したがって、(アニメーション化された画像メディアのように)ビデオメディア内の特定の時点での表現のうちの1つを調整することはまた、ビデオメディア内の異なる時間に対応する他の表現を調整する。特に、図22AKにおいて、デバイス600は、デバイス600の底縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、デバイス600の底縁部付近に、これらのユーザインタフェース要素を表示することにより、これらのユーザインタフェース要素が、デバイス600の一部のユーザの親指が届く範囲(例えば、デバイスがその手のみで保持されているときのデバイスを保持している手の親指が届く範囲)内にあることができる。 In response to detecting gesture 2250ak, device 600 moves scrubber indication control 2240a to a new position on scrubber 2240, as shown in FIG. 22AL. Specifically, device 600 moves scrubber indication control 2240a to a new position to the right of the position of scrubber indication control 2240a in FIG. 22AK. Further, in response to detecting gesture 2250ak, device 600 replaces expression 2282o with expression 2282p. Representation 2282p shows one of the frames of video media at a point in time corresponding to the new position of scrubber indication control 2240a on scrubber 2240. FIG. Representation 2282p thus corresponds to a time in the video media that is different than the time in the video media to which representation 2282o corresponds in FIG. 22AK. As shown in FIG. 22AL, while displaying representation 2282n, device 600 adjusted the current luminance value to display representation 2282o, but representation 2282p also adjusted based on the adjusted luminance value. was done. Therefore, adjusting one of the representations at a particular point in time within the video media (as in animated image media) also adjusts the other representations corresponding to different times within the video media. . 22AK, device 600 displays edit mode affordance 2210, adjustable brightness control 2254c, and visual property edit tool affordance 2214 near the bottom edge of device 600. In FIG. In some embodiments, by displaying these user interface elements near the bottom edge of device 600, these user interface elements are within thumb reach of some users of device 600 (e.g., device 600). within reach of the thumb of the hand holding the device when the device is held in that hand only.

図22ALでは、デバイス600は、デバイス600の時計回り回転を検出する。図22AMに示すように、時計回り回転2250alを検出したことに応じて、デバイス600は、縦向きのメディア編集ユーザインタフェースの表示を、横向きのメディア編集ユーザインタフェースの表示に遷移させる。図22AMに示すように、メディア編集ユーザインタフェースを横向きに表示するときに、デバイス600は、デバイス600の右縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、メディアユーザインタフェースが横向きにある間に、デバイス600の右縁部付近に、これらのユーザインタフェース要素を表示することにより、メディア編集ユーザインタフェースを回転させるときに、デバイス600のいくらかのユーザの親指が届く範囲内に、ユーザ要素を維持する。 In FIG. 22AL, device 600 detects clockwise rotation of device 600 . As shown in FIG. 22AM, in response to detecting clockwise rotation 2250al, device 600 transitions the display of the media editing user interface in portrait orientation to display the media editing user interface in landscape orientation. As shown in FIG. 22AM, when displaying the media editing user interface in landscape orientation, device 600 displays edit mode affordance 2210, adjustable brightness control 2254c, and visual property editing tools affordance near the right edge of device 600. 2214 is displayed. In some embodiments, by displaying these user interface elements near the right edge of the device 600 while the media user interface is in landscape orientation, the user interface of the device 600 is displayed when the media editing user interface is rotated. Keep user elements within reach of some user's thumb.

図23A~図23Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2300は、表示デバイス(例えば、タッチ感知ディスプレイ;112)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 23A-23B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. Method 2300 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch-sensitive display; 112). Some acts of method 2300 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2300は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2300 provides an intuitive way to edit captured media. This method reduces the user's cognitive burden in editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを介して、視覚メディア(例えば、画像、ビデオのフレーム)の表現(例えば、2230a~2230p)と、視覚メディアの表現(例えば、2230a~p)を編集する第1の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する)第1のアフォーダンス(例えば、2210~2216、2252~2256)と、視覚メディアの表現(例えば、2230a~2230p)を編集する第2の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する、一部である)第2のアフォーダンス(例えば、2210~2216)と、を含む、メディア(例えば、画像、ビデオ)編集ユーザインタフェースを表示する(2302)。 An electronic device (eg, 600) edits representations (eg, 2230a-2230p) of visual media (eg, images, frames of video) and representations of visual media (eg, 2230a-p) via a display device. a first editable parameter (e.g., media editing parameter (e.g., 2214) (e.g., auto (e.g., 2214a), exposure (e.g., 2214b), brilliance, highlights, shadows, contrast, brightness (e.g., 2214c) , black point, saturation, vibrance, temperature, tint, sharpness, clarity, noise reduction, vignette, color, black and white, lighting parameters (e.g. 2212) (e.g. natural light, studio light, outline light, stage light, mono stage light), filtering (e.g. 2216) parameters (e.g. original (e.g. 2216a), vivid, vivid warm, vivid cool, dramatic (e.g. 2216c), dramatic warm, dramatic cool, mono, silvertone, noir), cropping parameters (eg, 2218), correction parameters (eg, horizontal viewpoint correction, vertical viewpoint correction, horizon correction)))), a first affordance (eg, representing, indicating, controlling) (eg, 2210 . Exposure (e.g. 2214b), Brilliance, Highlights, Shadows, Contrast, Luminance (e.g. 2214c), Black Point, Saturation, Vibrance, Temperature, Tint, Sharpness, Clarity, Noise Reduction, Vignette, Color , black and white, lighting parameters (e.g. 2212) (e.g. natural light, studio light, outline light, stage light, mono stage light), filtering (e.g. 2216) parameters (e.g. original (e.g. 2216a), vivid, vivid warm , Vivid Cool, Dramatic (e.g. 2216c), Dramatic Warm, Dramatic Cool, Mono, Silvertone, Noir), Cropping Parameter (e.g. 2218), Correction Parameter (e.g. Horizontal Perspective Correction, Vertical Perspective Correction, Horizon Correction)) ) corresponding to (eg represents, indicates, controls, is part of) a second affordance (eg, 2210-22 16) display 2302 a media (eg, image, video) editing user interface, including;

メディア編集ユーザインタフェースを表示している間に、電子デバイスは、第1のアフォーダンス(例えば、2250c、2250h)の選択に対応する第1のユーザ入力(例えば、アフォーダンス上のタップ入力)を検出する(2304)。 While displaying the media editing user interface, the electronic device detects a first user input (e.g., a tap input on the affordance) corresponding to selection of the first affordance (e.g., 2250c, 2250h) ( 2304).

いくつかの実施形態では、第1のユーザ入力(例えば、2250c、2250h、2250n)は、第1のアフォーダンス(2214a、2214c、2214n)上のタップ入力である。 In some embodiments, the first user input (eg, 2250c, 2250h, 2250n) is a tap input on the first affordance (2214a, 2214c, 2214n).

第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応じて、電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置(例えば、第1及び第2のアフォーダンスに隣接する位置(第1及び第2のアフォーダンスの下の位置))に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、グラフィカル制御要素(例えば、スライダ))を表示する(2306)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの位置にスライドする(例えば、図22C~図22D)。 In response to detecting a first user input corresponding to selection of the first affordance, the electronic device displays on the display device respective locations within the media editing user interface (e.g., first and second affordances). (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust the first editable parameter (e.g., , a graphical control element (eg, a slider)) is displayed (2306). In some embodiments, the adjustable control slides to respective positions from the first and second affordances or from the left/right side of the display device (eg, FIGS. 22C-22D).

第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第1の編集可能パラメータが選択されている間に(例えば、2204)(例えば、図22C~図22D)(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール上のある対応する位置(例えば、ティックマーク)から調整可能なコントロール上の別の対応する位置へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2308)。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 While displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected (eg, 2204) (eg, FIGS. 22C-22D) ( (e.g., displayed pressed in the center of the media user interface, or displayed in a different color (e.g., not greyed out)), the electronic device can be adjusted to adjust the first editable parameter. a first gesture (e.g., 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) (e.g., a drag gesture (e.g., adjustable dragging an indication (eg, a slider bar) from one corresponding position (eg, a tick mark) on an adjustable control to another corresponding position on an adjustable control) (2308). In some embodiments, multiple affordances are displayed when multiple conditions are met. Device usability is enhanced by providing additional control options (e.g., sliders) without cluttering the UI with additional controls that are displayed, making the user-device interface (e.g., manipulating the device / make it more efficient by helping the user to provide appropriate input and reducing user error when interacting with the device, as well as allowing the user to use the device more quickly and efficiently This reduces device power usage and improves battery life.

第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応じて(2310)、電子デバイスは、第1のジェスチャに従って(例えば、第1のジェスチャの大きさに従って)第1の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22E~図22F)(2312)。 A first gesture directed at an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter while the first editable parameter is selected (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) (2310), the electronic device performs a first gesture according to the first gesture (eg, according to the magnitude of the first gesture). Adjust the current value of the editable parameter (eg, display a slider bar on the slider at the new position) (eg, FIGS. 22E-22F) (2312).

いくつかの実施形態では、第1の編集可能パラメータが選択されている間に(2204a、2204c、2204i)、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応じて(2310)、電子デバイスは、視覚メディアの表現の表示を、第1の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(例えば、2230b、2230e)に置き換える(2314)(例えば、編集可能パラメータがコントラストである場合、(例えば、第1のジェスチャの大きさによって現在調整された)第1の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ないコントラストを有する)。調整可能なコントロールの値を変更したことに応じて、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, adjustable controls (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c), in response to detecting 2310 a first gesture (e.g., 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab), the electronic device displays a representation of the visual media. with an adjusted representation of the visual media (e.g., 2230b, 2230e) that is adjusted based on the adjusted current value of the first editable parameter (2314) (e.g., if the editable parameter is contrast , the representation adjusted based on the current value of the first editable parameter (e.g., currently adjusted by the magnitude of the first gesture) is larger than the representation of the initially displayed visual media. or have less contrast). Providing feedback to the user about the current effect of the parameter on the representation of the captured media by displaying the adjusted representation in response to changing the value of the adjustable control, and allowing the user to accept the adjustment provide visual feedback to the user indicating that the action associated with the adjustable control will be performed when the user decides to Providing improved visual feedback to the user enhances the usability of the device and improves the user-device interface (e.g., helping the user to provide appropriate input when operating/interacting with the device). (by assisting users and reducing user error), as well as enabling users to use devices more quickly and efficiently, thereby reducing device power usage and improving battery life. be done.

いくつかの実施形態では、第1の編集可能パラメータは、自動調整編集可能パラメータである(例えば、電子デバイスが自動調整アフォーダンス(例えば、第1の編集可能パラメータアフォーダンス(例えば、2214a))の選択、又は自動調整編集可能パラメータを調整する調整可能なコントロール(例えば、2254a)の値の変化を検出するとき、電子デバイスは、他の編集可能(edible)パラメータ(例えば、コントラスト、色合い、彩度)の値を計算し、他の編集可能パラメータの現在値を自動的に更新する)(例えば、22H~22K)。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第2の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)を含む複数の編集可能パラメータの現在値を調整することを含む。操作を実行するために必要な入力の数(例えば、画像の複数の編集可能パラメータを調整する)が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first editable parameter is an auto-adjusting editable parameter (e.g., the electronic device selects an auto-adjusting affordance (e.g., first editable parameter affordance (e.g., 2214a)); or when detecting a change in the value of an adjustable control (e.g., 2254a) that adjusts an auto-adjust editable parameter, the electronic device adjusts other edible parameters (e.g., contrast, tint, saturation). Calculate values and automatically update the current values of other editable parameters) (eg, 22H-22K). In some embodiments, adjusting the current value of the first editable parameter according to the first gesture by the electronic device adjusts the current value of the second editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K). ), including adjusting the current values of multiple editable parameters. By reducing the number of inputs required to perform an operation (e.g., adjusting multiple editable parameters of an image), device usability is enhanced and the user-device interface (e.g., operating the device / make it more efficient by helping the user to provide appropriate input and reducing user error when interacting with the device, as well as allowing the user to use the device more quickly and efficiently This reduces device power usage and improves battery life.

いくつかの実施形態では、メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータ(例えば、2244a~2244i)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含み、複数の編集可能パラメータ現在値インジケータは、視覚メディアの表現の第2の編集可能パラメータに対応する値インジケータ(例えば、第2の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、視覚メディアの表現の第3の編集可能パラメータに対応する値インジケータ(例えば、第3の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、を含む。いくつかの実施形態では、電子デバイスが複数の編集可能パラメータの現在値を調整することは、電子デバイスが第3の編集可能パラメータの現在値を調整することと、第2の編集可能パラメータの調整された現在値に基づいて、第2の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、第3の編集可能パラメータの調整された現在値に基づいて、第3の編集可能パラメータ(例えば、図22H~図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、を含む。いくつかの実施形態では、現在値インジケータは、アフォーダンスの周囲にある(例えば、第1の進度インジケータは、第1のアフォーダンスの周囲にあり、第2の進度インジケータは、第2のアフォーダンスの周囲にある)。いくつかの実施形態では、第1の編集可能パラメータのアフォーダンスの一部として、又はアフォーダンスに隣接して表示される第1の編集可能パラメータの調整された現在値に基づいて更新される第1の編集可能パラメータに対応する値インジケータが存在する。(例えば、図22K)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。更には、自動調整アルゴリズムにおける変化に基づいて値インジケータを自動的に更新することにより、ユーザは、自動調整アルゴリズムが特定の編集可能パラメータの特定の値をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the media editing user interface includes a plurality of editable parameter current value indicators (eg, 2244a-2244i) (eg, around affordances corresponding to editable parameters that are updated based on the values of the parameters). graphical border), and the plurality of editable parameter current value indicators correspond to a second editable parameter of the visual media representation (e.g., a value indicator corresponding to the second editable parameter is selected). and a value indicator corresponding to the third editable parameter of the visual media representation (For example, the value indicator corresponding to the third editable parameter, when selected, is displayed as part of or adjacent to the affordance that displays controls for adjusting the second editable parameter). and including. In some embodiments, adjusting the current values of the plurality of editable parameters by the electronic device comprises adjusting the current value of a third editable parameter and adjusting the current value of the second editable parameter. updating the value indicator corresponding to the second editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) based on the adjusted current value; updating the value indicator corresponding to the third editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) based on the current value. In some embodiments, the current value indicator is around the affordance (e.g., the first progress indicator is around the first affordance and the second progress indicator is around the second affordance). be). In some embodiments, the first editable parameter displayed as part of or adjacent to the affordance of the first editable parameter is updated based on the adjusted current value of the first editable parameter. There are value indicators that correspond to editable parameters. (eg FIG. 22K). By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display the adjustable representation. Furthermore, by automatically updating the value indicator based on changes in the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed a particular value of a particular editable parameter. be able to. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、図22E、図22J、図22Pの2254a、2254c、及び2254i)を視覚的に強調する(例えば、グレーアウトされていないものとして表示する、調整可能な入力コントロールが焦点が合って表示されている間に、焦点から外れているものとしてユーザインタフェースの一部を表示する、異なる色又は拡大として表示する)。いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、2250d、2250i、2250o)のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調する。入力を調整可能なコントロールに提供している間に調整可能なコントロールを強調することにより、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えることを判定することができ、かつユーザが調整可能なコントロールの値を正確に設定する変更を増加させることによって、ユーザが調整可能なコントロールを特定の値に設定することによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the electronic device adjusts the first editable parameter while detecting the first gesture directed to the adjustable control that adjusts the first editable parameter. The adjustable input control is in focus, visually highlighting (e.g., displaying as not greyed out) the possible controls (e.g., 2254a, 2254c, and 2254i in FIGS. 22E, 22J, and 22P). while displayed, displaying parts of the user interface as out of focus, displaying them as different colors or magnifying). In some embodiments, the electronic device visually highlights the adjustable control by detecting liftoff of the first gesture (eg, 2250d, 2250i, 2250o). By highlighting the adjustable control while providing input to the adjustable control, the user can determine that the current state of motion affects the adjustable control, and the user can Accurately setting the value of the adjustable control reduces error by increasing the change that the user sets the adjustable control to a specific value. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の編集可能パラメータは、視覚フィルタ効果強度(例えば、フィルタ効果の強度(例えば、クール、ビビッド、ドラマチック))(例えば、図22T~図22Vの2216a~2216d)である。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが視覚メディアの表現(例えば、2230g及び2230h)の表示を、視覚フィルタ効果強度の現在値に基づいて調整された視覚メディアの表現(例えば、フィルタされた表現)に置き換えることを更に含む。 In some embodiments, the first editable parameter is the visual filter effect strength (eg, the strength of the filter effect (eg, cool, vivid, dramatic)) (eg, 2216a-2216d in FIGS. 22T-22V). be. In some embodiments, the electronic device adjusting the current value of the first editable parameter in accordance with the first gesture causes the electronic device to display the representation of the visual media (eg, 2230g and 2230h) using the visual filter. It further includes replacing the representation (eg, filtered representation) of the visual media adjusted based on the current value of the effect strength.

いくつかの実施形態では、アスペクト比アフォーダンス(例えば、上部のボタン)は、スライダを有する。いくつかの実施形態では、電子デバイスは、ユーザインタフェース要素(例えば、スライダ及びオプション)を、親指が届くように異なるデバイス上で異なるように表示する。いくつかの実施形態では、視覚メディアのフレームとアニメーション化された画像メディアとの間をナビゲーションするキーフレームは、同じである。 In some embodiments, aspect ratio affordances (eg, buttons at the top) have sliders. In some embodiments, the electronic device displays user interface elements (eg, sliders and options) differently on different devices within thumb reach. In some embodiments, the keyframes that navigate between frames of visual media and animated image media are the same.

表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、電子デバイスは、第2のアフォーダンス(例えば、2250c、2250h)(例えば、図22N)の選択に対応する第2のユーザ入力(例えば、アフォーダンス上のタップ入力)を検出する(2316)。 While displaying on the display device an adjustable control that adjusts the first editable parameter, the electronic device responds to selection of the second affordance (e.g., 2250c, 2250h) (e.g., FIG. 22N). A corresponding second user input (eg, a tap input on the affordance) is detected (2316).

いくつかの実施形態では、第2のユーザ入力は、第2のアフォーダンス(2214a、2214c、2214n)上のタップ入力(例えば、2250c、2250h、2250n)である。 In some embodiments, the second user input is a tap input (eg, 2250c, 2250h, 2250n) on the second affordance (2214a, 2214c, 2214n).

第2のアフォーダンス(2214a、2214c、2214n)の選択に対応する第2のユーザ入力(例えば、タップ)入力(例えば、2250c、2250h、2250n)を検出したことに応じて、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置(例えば、第1の及び第2のアフォーダンスに隣接する位置(第1の及び第2のアフォーダンスの下の位置))に、第2の編集可能パラメータ(例えば、グラフィカル制御要素(例えば、スライダ))を調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を表示する(2318)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの位置にスライドする。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールオプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a second user input (eg, tap) input (eg, 2250c, 2250h, 2250n) corresponding to selection of a second affordance (2214a, 2214c, 2214n), the electronic device performs media editing. A second editable parameter (e.g., graphical control Display 2318 adjustable controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust elements (eg, sliders). In some embodiments, the adjustable control slides to respective positions from the first and second affordances or from the left/right side of the display device. In some embodiments, multiple affordances are displayed when multiple conditions are met. Device usability is enhanced by providing additional control options (e.g., sliders) without cluttering the UI with additional controls that are displayed, making the user-device interface (e.g., manipulating the device / make it more efficient by helping the user to provide appropriate input and reducing user error when interacting with the device, as well as allowing the user to use the device more quickly and efficiently This reduces device power usage and improves battery life.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、第1の静的部分(例えば、スライダのティックマーク(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、スライダのフレーム(例えば、ティックマーク、スライダ範囲、色))と、第1の可変部分(例えば、現在値のインジケーション(例えば、スライダバー))(例えば、インジケーション2252b1、2252bb1、2254a1-i1、2256c1)と、を含む。いくつかの実施形態では、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2254)は、第1の静的部分(例えば、スライダのフレーム(例えば、ティックマーク、スライダの範囲、色))と、第2の可変部分(例えば、インジケーション2252b1、2252bb1、2254a1-i1、2256c1)(例えば、現在値のインジケーション(例えば、スライダバー))と、を含む。いくつかの実施形態では、第2の可変部分は、第1の可変部分とは異なる。いくつかの実施形態では、電子デバイスがメディア編集ユーザインタフェース内のそれぞれの位置に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することは、電子デバイスが、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの位置に第1の静的部分の表示を維持すること(例えば、調整可能なコントロールの1つ以上の他の部分が維持及び/又は更新されている(例えば、値インジケータが新しい値を反映するように更新される)間に、調整可能なコントロールの1つ以上の部分を維持すること(例えば、スライダの表示された位置及びフレーム(例えば、ティックマーク)は、表示され続ける))(例えば、スライダの表示は、複数の編集動作の間に維持される)(例えば、図22H~図22I、図22N~図22Oのインジケーション2252b1、2252bb1、2254a1~i1、2256c1)を含む。いくつかの実施形態では、第2の可変部分が表示されると、第1の可変部分は、表示を停止されるか、又は第2のインジケーションの表示を、第1のインジケーションの表示に置き換える。いくつかの実施形態では、第1及び第2の可変位置は、スライダ上の異なる位置にある。いくつかの実施形態では、第1及び第2の可変部分は、スライダ上で同じ位置にある。いくつかの実施形態では、第1及び第2の可変部分は、第1及び第2の値(例えば、第1のタイプ(例えば、スズ(tin))の値は、第2のタイプ(例えば、コントラスト)の値とは異なる)である間、スライダ上の同じ位置に表示される。いくつかの実施形態では、第1の値及び第2の値は、異なるタイプの値である。いくつかの実施形態では、電子デバイスは、第1の編集パラメータに対応する第1の値の第1の可変部分の表示を置き換え、調整可能なコントロール上の第2の編集パラメータに対応する第2の値の第2の可変部分を表示する。2つの調整可能なコントロールの間で切り替えるとき、調整可能なコントロールの静的部分を維持することにより、UI上に表示される要素の変化を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のオプションを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter is the first static portion (e.g., slider tick mark (e.g. 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (e.g. slider frame (e.g. tick mark, slider range, color)) and a first variable part (e.g. current value indication (e.g. , slider bar)) (e.g., indications 2252b1, 2252bb1, 2254a1-i1, 2256c1), and, in some embodiments, an adjustable control (e.g., 2254) that adjusts the second editable parameter. has a first static part (e.g. slider frame (e.g. tick mark, slider range, color)) and a second variable part (e.g. indications 2252b1, 2252bb1, 2254a1-i1, 2256c1) ( In some embodiments, the second variable portion is different than the first variable portion.In some embodiments, an electronic The device displaying an adjustable control for adjusting the second editable parameter at each position within the media editing user interface causes the electronic device to display on the display device at each position within the media editing user interface. maintaining the display of the first static portion (e.g., one or more other portions of the adjustable control are maintained and/or updated (e.g., the value indicator to reflect the new value); maintaining one or more portions of the adjustable control (e.g., the displayed position and frame (e.g., tick mark) of the slider remain visible) while the slider is being updated (e.g., the (eg, indications 2252b1, 2252bb1, 2254a1-i1, 2256c1 of FIGS. 22H-22I, 22N-22O). , when the second variable portion is displayed, the first variable portion is either stopped displaying or replaces the display of the second indication with the display of the first indication. In configuration, the first and second variable positions are different positions on the ida. In some embodiments, the first and second variable portions are at the same position on the slider. In some embodiments, the first and second variables are first and second values (e.g., a first type (e.g., tin) value are of a second type (e.g., tin). Contrast) value) while displayed at the same position on the slider. In some embodiments, the first value and the second value are different types of values. In some embodiments, the electronic device replaces display of a first variable portion of a first value corresponding to a first editing parameter and a second variable portion corresponding to a second editing parameter on the adjustable control. Display the second variable part of the value of . When switching between two adjustable controls, keeping the static part of the adjustable controls allows the user to set different editable parameters while simultaneously minimizing changes in the elements displayed on the UI. provides the user with more control over the device. Device usability is enhanced by providing additional options without cluttering the UI with additional controls that are displayed, making the user-device interface (e.g., when operating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)及び第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、同じ相対位置に調整されると、1つ以上の視覚的特徴(例えば、スライダ上のティックマーク)を共有する(例えば、第1の編集可能パラメータを調整する調整可能なコントロール及び第2の編集可能パラメータを調整する調整可能なコントロールは、中央値、最大値及び/又は最小値に調整されると、同じ外観を有する)(例えば、図22H~図22I;図22N~図22O)。同じ相対位置で視覚的特徴を共有する調整可能なコントロールを提供することにより、UI上に表示される要素の変化(例えば、要素及び/又は要素の表現の位置の変化)を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, an adjustable control that adjusts the first editable parameter (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) and an adjustable control that adjusts the second editable parameter (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) share one or more visual characteristics (e.g., tick marks on sliders) when adjusted to the same relative position (e.g., first The adjustable control that adjusts the editable parameter and the adjustable control that adjusts the second editable parameter have the same appearance when adjusted to the median, maximum and/or minimum values (e.g., 22H-22I; 22N-22O). By providing adjustable controls that share visual characteristics in the same relative position, while simultaneously minimizing changes in elements displayed on the UI (e.g., changes in position of elements and/or representations of elements), It provides the user with more control over the device by allowing the user to set different editable parameters. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、かつ第2の編集可能パラメータが選択されている間に(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)上のある対応する位置(例えば、ティックマーク)から調整可能なコントロール上の別の対応する位置へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2320)。 While displaying an adjustable control that adjusts a second editable parameter, and while the second editable parameter is selected (e.g., center pressed and displayed in the middle of the media user interface) displayed in a different color (e.g., not greyed out)), the electronic device makes a second gesture (e.g., 2250d , 2250i, 2250o) (e.g., on an adjustable control from a corresponding position (e.g., tick mark) on a drag gesture (e.g., on an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) drag the indication (e.g., a slider bar) to another corresponding position in the )) is detected (2320).

第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)を検出したことに応じて(2322)、電子デバイスは、第2のジェスチャに従って(例えば、第2のジェスチャの大きさに従って)第2の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22J~図22K)(2324)。異なる編集可能パラメータを調整する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 A second gesture directed at an adjustable control (e.g., 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts a second editable parameter while the second editable parameter is selected (eg, 2250d, 2250i, 2250o) 2322, the electronic device outputs the current value of the second editable parameter according to the second gesture (eg, according to the magnitude of the second gesture). (eg, display a slider bar on the slider at the new position) (eg, FIGS. 22J-22K) (2324). By providing different adjustable controls that adjust different editable parameters, avoiding users unintentionally changing the representation in undesirable ways and, at the same time, input to the adjustable controls It provides the user with more control over the device by allowing the user to perceive to change the representation based on. The usability of the device is enhanced by allowing additional control without cluttering the UI with additional controls that are displayed, making the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping users make appropriate inputs and reducing user errors), and by enabling users to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を検出したことに応じて(2322)、電子デバイスは、視覚メディアの表現(2230a~2230p)の表示を、第2の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(2230a~2230p)に置き換える(2326)(例えば、編集可能パラメータが色合いである場合、(例えば、第2のジェスチャの大きさによって現在調整された)第2の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ない色合いを有する)(例えば、図22J~図22K)。調整可能なコントロールの値を変更したことに応じて、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, a second gesture (e.g., 2252b, 2252bb, 2254a) directed at an adjustable control that adjusts a second editable parameter while the second editable parameter is selected. , 2254c, 2254f, 2256c), the electronic device displays 2322 the representation of the visual media (2230a-2230p) based on the adjusted current value of the second editable parameter. Replace 2326 with the adjusted representation (2230a-2230p) of the visual media to be adjusted (eg, if the editable parameter is hue, then the second The representation that is adjusted based on the current values of the editable parameters of has more or less shades than the representation of the visual media that is initially displayed (eg, FIGS. 22J-22K). Providing feedback to the user about the current effect of the parameter on the representation of the captured media by displaying the adjusted representation in response to changing the value of the adjustable control, and allowing the user to accept the adjustment provide visual feedback to the user indicating that the action associated with the adjustable control will be performed when the user decides to Providing improved visual feedback to the user enhances the usability of the device and improves the user-device interface (e.g., helping the user to provide appropriate input when operating/interacting with the device). (by assisting users and reducing user error), as well as enabling users to use devices more quickly and efficiently, thereby reducing device power usage and improving battery life. be done.

いくつかの実施形態では、メディア編集ユーザインタフェースが、視覚メディアの表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンス(例えば、2214f~i)を含まない間に、電子デバイスは、第3のユーザ入力(例えば、2250l)(例えば、スワイプジェスチャ(例えば、メディア編集ユーザインタフェースのコントロール領域に対応する位置で、アフォーダンス上のタップ(例えば、中央にあるディスプレイの縁部に向かうアフォーダンス))を検出する。いくつかの実施形態では、第3のユーザ入力(例えば、2250l)を検出したことに応じて、電子デバイスは、第3のアフォーダンス(例えば、2214f~i)を表示する(例えば、ディスプレイにスライドオンする第3のアフォーダンスのアニメーションを表示する)。いくつかの実施形態では、電子デバイスはまた、第3のアフォーダンス(例えば、2214f~i)を表示するときに、第1のアフォーダンス(2214a)及び/又は第2のアフォーダンス(2214c)を表示することを停止する。いくつかの実施形態では、対応するパラメータのための複数のアフォーダンスを、第3のユーザ入力を検出する前に表示されず、第3のユーザ入力を検出したことに応じて、表示される多くのアフォーダンスは、第3のユーザ入力(例えば、スワイプ又はドラッグジェスチャの接触の移動の速さ及び/又は方向)(例えば、図22L~図22N)の大きさ(例えば、速さ及び/又は距離)及び/又は方向に基づいて選択される。 In some embodiments, while the media editing user interface does not include a third affordance (eg, 2214f-i) corresponding to a fourth editable parameter for editing the representation of the visual media, the electronic device: A third user input (e.g., 2250l) (e.g., a swipe gesture (e.g., a tap on an affordance at a location corresponding to a control area of the media editing user interface (e.g., toward an edge of the display in the center)) In some embodiments, in response to detecting a third user input (eg, 2250l), the electronic device displays a third affordance (eg, 2214f-i) (eg, display an animation of the third affordance sliding on to the display.) In some embodiments, the electronic device also displays the first affordance (e.g., 2214f-i) when displaying the third affordance (eg, 2214a) and/or stop displaying the second affordance 2214c.In some embodiments, multiple affordances for the corresponding parameters are displayed before detecting the third user input. However, in response to detecting a third user input, many affordances that are displayed depend on the third user input (e.g., speed and/or direction of movement of contact in a swipe or drag gesture) (e.g., 22L-22N) based on magnitude (eg, speed and/or distance) and/or direction.

いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、2252i2)(例えば、自動調整アルゴリズムによって計算された値)に対応するとの判定に従って、電子デバイスが触知出力(例えば、2260a)(例えば、振動)を生成することを更に含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、自動調整アルゴリズムによって計算された値)に対応しないとの判定に従って、電子デバイスが触知出力(例えば、振動)を生成することをやめることを更に含む。いくつかの実施形態では、インジケータ(例えば、スライダ上の着色された又は太字化されたティックマーク又はスライダ上の別の識別ユーザインタフェース要素)は、スライダ上に表示されて、所定のリセット値を示す。(例えば、図22Q~図22R)。その元の条件に表現をリセットするための追加のコントロールオプションを提供することにより、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, adjusting the current value of the first editable parameter according to the first gesture by the electronic device causes the current value (eg, the adjusted current value) of the first editable parameter to be the The electronic device outputs a tactile output (e.g., 2260a) (e.g., vibration) according to a determination that it corresponds to a predetermined reset value (e.g., 2252i2) for one editable parameter (e.g., a value calculated by an auto-tuning algorithm). further comprising generating In some embodiments, adjusting the current value of the first editable parameter according to the first gesture by the electronic device causes the current value (eg, the adjusted current value) of the first editable parameter to be the further ceasing the electronic device from generating a tactile output (e.g., vibration) upon determining that it does not correspond to a predetermined reset value (e.g., a value calculated by an auto-tuning algorithm) for the one editable parameter; include. In some embodiments, an indicator (e.g., a colored or bolded tick mark on the slider or another identifying user interface element on the slider) is displayed on the slider to indicate the predetermined reset value. . (eg, Figures 22Q-22R). By providing additional control options to reset the representation to its original conditions, the user-device interface (e.g., assisting the user in making appropriate inputs when manipulating/interacting with the device). and reduce user error), and in addition, by allowing users to use the device more quickly and efficiently, the device uses less power and improves battery life. be. In some embodiments, multiple affordances are displayed when multiple conditions are met.

いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールを表示し、かつ第3のユーザ入力(例えば、2250l)を検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロールを視覚的に抑制する(例えば、図22Mの2254a1)(例えば、グレーアウトされ、より小さく、焦点から外れて、暗色で表示する)。いくつかの実施形態では、電子デバイスは、第3のユーザ入力のリフトオフを検出するまで、調整可能なコントロールを視覚的に抑制する(例えば、図22L~図22N)。編集可能パラメータを通じてナビゲーションしている間に調整可能なコントロールを強調することをやめることにより、調整可能なコントロールの現在の状態についてのフィードバックをユーザに提供し、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えないことを判定することができ、特定のユーザインタフェース要素の顕著な表示を減少させることによって、ユーザが特定の編集可能パラメータにナビゲーションすることによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying an adjustable control for adjusting the first editable parameter and detecting a third user input (eg, 2250l), the electronic device adjusts the first Visually suppress the adjustable control that adjusts the editable parameter (eg, 2254a1 in FIG. 22M) (eg, greyed out, smaller, out of focus, darker). In some embodiments, the electronic device visually inhibits the adjustable control until it detects liftoff of a third user input (eg, FIGS. 22L-22N). By de-emphasizing an adjustable control while navigating through an editable parameter, it provides feedback to the user about the current state of the adjustable control, allowing the user to see if the current state of the action is being adjusted. It can be determined not to affect possible controls, and by reducing the prominent display of certain user interface elements, users reduce error by navigating to certain editable parameters. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第3のユーザ入力(例えば、2250l)は、第1の編集可能パラメータを調整する調整可能なコントロールが表示されている間に(例えば、2254a1)、電子デバイスによって受信される。いくつかの実施形態では、電子デバイスが第3のアフォーダンスを表示することは、第4の編集可能パラメータが第1のタイプのパラメータ(例えば、2212a~2212d)(例えば、所定の位置(例えば、メディア編集ユーザインタフェースの中心)に表示される場合に調整のために自動的に選択されるパラメータ)であるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、図22Yの2252b1)を表示することを含む。いくつかの実施形態では、第1の1組の基準は、第3のアフォーダンスが第2のそれぞれの位置(例えば、編集可能パラメータに対応するアフォーダンスを表示する制御リボンの中心)(例えば、このような回転、コントラスト、輝度、明度、彩度などを調整するために選択される前に選択入力を必要としない編集可能パラメータは、編集可能パラメータのデフォルト状態が、視覚メディアの表現の現在の状態に対応する)で表示されるときに満たされる基準を含む。いくつかの実施形態では、電子デバイスが第3のアフォーダンス(例えば、2214a~2214i)を表示することはまた、第1の1組の基準が満たされていないとの判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの位置に第4の編集可能パラメータを調整する調整可能なコントロール(例えば、2214h)を表示することをやめることを含む。いくつかの実施形態では、電子デバイスはまた、第1の編集可能パラメータを調整する調整可能なコントロールの表示を維持する。いくつかの実施形態では、第1の1組の基準は、第4の編集可能パラメータが第2のタイプのパラメータ(例えば、所定の位置に表示される場合に調整のために自動的に選択されないパラメータ(例えば、フィルタ又は編集ツールなどを調整するために選択される前に選択入力を必要とする編集可能パラメータは、フィルタ又は編集ツールのデフォルト用途が、フィルタ又は編集ツールを視覚メディアの表現に適用することによって、視覚メディアの表現を変更する))(例えば、図22H~図22I及び図22W~図22Z)であると満たされていない。 In some embodiments, a third user input (eg, 2250l) is received by the electronic device while an adjustable control adjusting the first editable parameter is displayed (eg, 2254a1). be. In some embodiments, displaying the third affordance by the electronic device means that the fourth editable parameter is a parameter of the first type (eg, 2212a-2212d) (eg, at a predetermined location (eg, media according to a determination that a first set of criteria are met, including criteria met when a parameter is automatically selected for adjustment when displayed (in the center of the editing user interface); , the electronic device includes displaying an adjustable control (eg, 2252b1 in FIG. 22Y) that adjusts the fourth editable parameter at respective locations within the media editing user interface. In some embodiments, the first set of criteria is such that the third affordance is the second respective position (e.g., the center of the control ribbon displaying the affordance corresponding to the editable parameter) (e.g., such Editable parameters that do not require selection input before being selected to adjust rotation, contrast, brightness, lightness, saturation, etc. are defined as the default state of the editable parameter to the current state of the presentation of the visual media. contains criteria that are met when displayed in the corresponding ). In some embodiments, displaying the third affordance (eg, 2214a-2214i) by the electronic device also causes the electronic device to display the media in accordance with the determination that the first set of criteria is not met. Ceasing to display adjustable controls (eg, 2214h) that adjust the fourth editable parameter at respective locations within the editing user interface. In some embodiments, the electronic device also maintains a display of adjustable controls that adjust the first editable parameter. In some embodiments, the first set of criteria is not automatically selected for adjustment when the fourth editable parameter appears in place of the second type of parameter (e.g., An editable parameter that requires selection input before being selected to adjust a parameter (e.g., a filter or editing tool, etc.) is defined as the default use of the filter or editing tool to apply the filter or editing tool to the representation of the visual media. (eg, FIGS. 22H-22I and 22W-22Z) are not satisfied.

いくつかの実施形態では、視覚メディアの表現及び第1のアフォーダンス(例えば、2214c)を表示している間に、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているかどうかの状態(例えば、図22F~図22Gの2204c)を示す第1の編集可能パラメータ状態インジケータ(例えば、2214c)(例えば、編集可能パラメータのオン/オフをトグルする選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、電子デバイスは、第1のアフォーダンスの選択に対応する第4のユーザ入力を検出する。いくつかの実施形態では、第4のユーザ入力(例えば、2250f及び/又は2250g)を検出したことに応じて、かつ視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されている(例えば、第1の編集可能パラメータ状態インジケータがアクティブである又は選択されているものとして表示されるとき(例えば、押圧されて及び/又は異なる色で(例えば、飽和していない及び/又は暗色化又はグレーアウトされていない)表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)との判定に従って、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないことを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータが非アクティブ又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整されなかった視覚メディアの表現に置き換える(例えば、表現は、第1の編集可能パラメータ(例えば、コントラスト)に対応する元のキャプチャされた値(例えば、メディアがキャプチャされたときの元のコントラスト値)を有する)。いくつかの実施形態では、第4のユーザ入力を検出したことに応じて、かつ視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていない(例えば、第1の編集可能パラメータ状態インジケータが非アクティブである又は選択されていないものとして表示されているとき(例えば、押圧されている及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)などの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションとともに表示される))との判定に従って、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータの現在値に基づいて現在調整されていることを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータがアクティブ又は選択されているものとして表示されているとき(例えば、押圧されている及び/又は異なる色で(例えば、飽和された及び/又は暗色化されていない若しくはグレーアウトされていない)あるとして表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションとともに表示される)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整された視覚メディアの表現(例えば、第1の編集可能パラメータの現在値(例えば、第1の編集可能パラメータを調整する調整可能なコントロール上に表示された現在値)に基づいて調整された表現)に置き換える(例えば、図22F~図22H)。 In some embodiments, while displaying the visual media representation and the first affordance (eg, 2214c), the electronic device determines that the visual media representation is currently adjusted based on the first editable parameter. A first editable parameter status indicator (eg, 2214c) that indicates whether the editable parameter is active (eg, 2204c in FIGS. 22F-22G) (eg, a selectable user interface object that toggles the editable parameter on/off) display. In some embodiments, the electronic device detects a fourth user input corresponding to selecting the first affordance. In some embodiments, in response to detecting a fourth user input (e.g., 2250f and/or 2250g), and based on the first editable parameter, the presentation of the visual media is currently being adjusted ( For example, when the first editable parameter state indicator is displayed as active or selected (e.g., pressed and/or in a different color (e.g., desaturated and/or darkened or display a visual indication that the first editable parameter is active, such as not greyed out), the electronic device determines that the visual media representation is the first editable parameter update the first editable parameter state indicator to indicate that it is currently not adjusted based on the Visualization that the first editable parameter is inactive (e.g., not pressed and/or in a different color (e.g., darkened and/or desaturated or greyed out) display an indication), replacing the display of the visual media representation with a visual media representation that was not adjusted based on the first editable parameter (e.g., the representation is the first editable parameter (e.g., contrast ) corresponding to the original captured value (e.g., the original contrast value when the media was captured).In some embodiments, in response to detecting a fourth user input, and The presentation of the visual media is not currently being adjusted based on the first editable parameter (e.g., when the first editable parameter status indicator is displayed as inactive or not selected (e.g., Displayed with a visual indication that the first editable parameter is inactive, such as depressed and/or in a different color (e.g., darkened and/or desaturated or grayed out) is determined), the electronic device displays the first editable parameter status indicator to indicate that the presentation of the visual media is currently being adjusted based on the current value of the first editable parameter. update (e.g. the first editable parameter status indicator when the data is displayed as active or selected (e.g., pressed and/or in a different color (e.g., saturated and/or not darkened or grayed out) displayed with a visual indication that the first editable parameter is active, such as being displayed), displaying the representation of the visual media adjusted based on the first editable parameter. Replace with a representation (e.g., an adjusted representation based on the current value of the first editable parameter (e.g., the current value displayed on the adjustable control that adjusts the first editable parameter) (e.g., 22F-22H).

いくつかの実施形態では、第3の編集可能パラメータ現在値インジケータ(例えば、2244a~2244i)は、第1のアフォーダンス(例えば、2214a~2214i)の少なくとも一部分を視覚的に包囲しており(例えば、周囲に円形に包まれている、包含する)、第4の編集可能パラメータ現在値(例えば、2244a~2244i)インジケータは、第2のアフォーダンス(例えば、2214a~2214i)を視覚的に包囲している(例えば、周囲に円形に包まれている、包含する)。いくつかの実施形態では、進度インジケータは、現在値の関係に基づいて、第1の編集可能パラメータが設定され得る最大値に、色(例えば、青色)で満たす円形状態バーを含む)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the third editable parameter current value indicator (eg, 2244a-2244i) visually surrounds at least a portion of the first affordance (eg, 2214a-2214i) (eg, Circularly wrapped around, encompassing), a fourth editable parameter current value (eg, 2244a-2244i) indicator visually surrounds a second affordance (eg, 2214a-2214i) (e.g. wrapped around in a circle, encompassing). In some embodiments, the progress indicator includes a circular status bar that fills in color (eg, blue) to the maximum value to which the first editable parameter can be set based on the current value relationship. By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display the adjustable representation. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラを含む。いくつかの実施形態では、視覚メディアの表現は、1つ又はカメラの視野の表現である。いくつかの実施形態では、メディア編集ユーザインタフェースは、電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモード(例えば、カメラモード(例えば、ポートレートモード(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))))で視覚メディアをキャプチャ(又は編集)するように構成されている間に表示される。いくつかの実施形態では、第1の編集可能パラメータは、照明効果強度(例えば、602f)(例えば、シミュレートされた光量(例えば、光度))である。いくつかの実施形態では、第2の編集可能パラメータは、深度効果強度(例えば、602e)(例えば、ボケ効果強度、シミュレートされたf値)(例えば、図22W~図22AC)である。 In some embodiments, the electronic device includes one or more cameras. In some embodiments, the visual media representation is one or a representation of a camera's field of view. In some embodiments, the media editing user interface operates in a first capture mode (e.g., camera mode (e.g., portrait mode (e.g., media lighting capture Displayed while configured to capture (or edit) visual media with controls (e.g., portrait lighting effects controls (e.g., studio lighting, contour lighting, stage lighting)))). In form, the first editable parameter is the lighting effect intensity (e.g., 602f) (e.g., the simulated amount of light (e.g., luminous intensity).In some embodiments, the second editable parameter is , depth effect strength (eg, 602e) (eg, bokeh effect strength, simulated f-number) (eg, FIGS. 22W-22AC).

いくつかの実施形態では、第1の編集可能パラメータは、照明効果パラメータ(例えば、602f)(例えば、図22W~図22AC)に対応する。いくつかの実施形態では、メディア編集ユーザインタフェースは、照明効果パラメータに対する値インジケータ(例えば、602f)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが、第1の編集可能パラメータの調整された現在値に基づいて、照明効果パラメータを調整すること(例えば、照明効果の最大可能値に対する現在値の一部分に基づいて、より多くの又は少ない光をアクティブ(例えば、グレーアウトしない)として表示すること)を含む。動作を実行している間にアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、調整可能なコントロールの値が変化していることを示す視覚的フィードバックをユーザに提供する。いくつかの実施形態では、深度インジケータは、照明インジケータとは異なる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first editable parameter corresponds to the lighting effect parameter (eg, 602f) (eg, FIGS. 22W-22AC). In some embodiments, the media editing user interface displays a value indicator (e.g., 602f) for the lighting effect parameter (e.g., a graphical border around the affordance corresponding to the editable parameter that updates based on the value of the parameter). include. In some embodiments, adjusting the current value of the first editable parameter by the electronic device according to the first gesture causes the electronic device to: Adjusting lighting effect parameters (eg, displaying more or less lights as active (eg, not greyed out) based in part on the current value for the maximum possible value of the lighting effect). Provides feedback to the user about the current state of the icon by updating the icon's visual properties to reflect its activation state while performing an action, and when the value of an adjustable control changes. Provide visual feedback to the user to indicate that the In some embodiments the depth indicator is different than the lighting indicator. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

方法2300に関して上述された処理(例えば、図23A~図23B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2500、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 23A-23B) described above with respect to method 2300 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2300. Optionally includes one or more of the characteristics of various methods. For the sake of brevity, these details are not repeated below.

図24A~図24ABは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図25A~図25Bにおける処理を含む、以下で説明する処理を例示するために使用される。 24A-24AB illustrate exemplary user interfaces for editing captured media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 25A-25B.

理解を向上させるために、図24A~図24Jは、後処理技術により(例えば、メディアがキャプチャされた後に)、以前にキャプチャされたメディアの表現の水平線、垂直遠近歪、及び水平遠近歪の位置を補正する(例えば、低減する及び/又は変更する)ユーザインタフェースの例を提供するために、以下で論じられる。いくつかの実施形態では、表現の水平線、垂直遠近歪、及び水平遠近歪の位置は、カメラの位置(例えば、傾斜、角度)、又はメディアをキャプチャしている間のカメラレンズの形状及び/若しくは位置によって影響を受ける。 To improve understanding, FIGS. 24A-24J illustrate the position of horizontal lines, vertical perspective distortion, and horizontal perspective distortion of representations of previously captured media by post-processing techniques (eg, after the media has been captured). are discussed below to provide examples of user interfaces that correct (eg, reduce and/or change) the . In some embodiments, the position of the horizon, vertical perspective distortion, and horizontal perspective distortion of the representation are determined by the position of the camera (e.g., tilt, angle), or the shape of the camera lens while capturing media and/or Affected by location.

図24Aにおいて、電子デバイス600は、以前にキャプチャされたメディア(例えば、写真)の表現2430aを含むメディアビューワユーザインタフェースを表示する。表現2430aは、矩形プリズム2432の横方向面2432bで足をぶらぶらさせながら矩形プリズム2432の上に座っている人を示す。横方向面2432bの他に、図示される矩形プリズム2432の唯一の他の面は、端面2432aである。表現2430aは、水平線が表現2430aにおいて対角線であるため、補正されていない水平線2438を含む(例えば、水平線2438の一部の点が異なるy値を有する場合)。図24Eに示すように(以下に詳細に論じられる)、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるように、表現2430aを調整することによって(例えば、水平線の各点が同一のy値を有する場合)、水平線2438の位置を補正する。更には、図24Aにおいて、表現2430aは、補正されていない垂直遠近歪を含む。垂直線2434a~2434cが表現2430a内で平行であるべきだが(例えば、実際の垂直線(例えば、自然又は実世界環境内)プリズムは平行であるため)、垂直線2434a~2434cは、表現2430aの底部に向かって、それぞれの点で視覚的に収束するように見える。図24Hに示すように、デバイス600は、垂直線2434a~2434cが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、垂直視点を補正する。更に、図24Aにおいて、表現2430aは、補正されていない水平遠近歪を含む。例えば、水平線2436a~2436bが表現2430a内で平行であるべきだが(例えば、実際のプリズムの水平線(例えば、自然又は実世界環境内)、水平線2436a~2436bは、表現2430a内で右から左へ動いて収束するように見える。図24Jに示すように、デバイス600は、水平線2436a~2436bが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、水平視点を補正する。図24Aに示すように、メディアビューワユーザインタフェースはまた、編集アフォーダンス644aを含む。 In FIG. 24A, electronic device 600 displays a media viewer user interface that includes a representation 2430a of previously captured media (eg, photographs). Representation 2430a shows a person sitting on rectangular prism 2432 with his legs dangling on lateral face 2432b of rectangular prism 2432. FIG. Besides lateral surface 2432b, the only other surface of rectangular prism 2432 shown is end surface 2432a. Representation 2430a includes uncorrected horizontal line 2438 because the horizontal line is diagonal in representation 2430a (eg, if some points of horizontal line 2438 have different y-values). As shown in FIG. 24E (discussed in detail below), device 600 adjusts representation 2430a such that horizontal line 2438 appears to travel only along the x-axis of the representation (e.g., each points have the same y-value), correct the position of the horizontal line 2438; Further, in FIG. 24A, representation 2430a includes uncorrected vertical perspective distortion. Although vertical lines 2434a-2434c should be parallel in representation 2430a (eg, because real vertical lines (eg, in a natural or real-world environment) prisms are parallel), vertical lines 2434a-2434c are parallel in representation 2430a. Towards the bottom, they appear to visually converge at each point. As shown in FIG. 24H, device 600 corrects the vertical viewpoint by adjusting representation 2430a such that vertical lines 2434a-2434c appear parallel (eg, not converging). Further, in FIG. 24A, representation 2430a includes uncorrected horizontal perspective distortion. For example, although the horizon lines 2436a-2436b should be parallel within the representation 2430a (eg, the horizon lines of a real prism (eg, in a natural or real-world environment), the horizon lines 2436a-2436b move from right to left within the representation 2430a. 24J, device 600 adjusts representation 2430a such that horizontal lines 2436a-2436b appear parallel (eg, non-converging) by adjusting horizontal viewpoint 24A, the media viewer user interface also includes an editing affordance 644a.

図24Aでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2450aを検出する。図24Bに示すように、タップジェスチャ2450aを検出したことに応じて、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(例えば、図22A~図22Bに関連して上述したように)。メディア編集ユーザインタフェースは、図24Aにおいて表現2430aに対応する表現2430bを含む。すなわち、表現2430bは、キャプチャされたメディアの同一の表現を示し、表現2430aに関連して上述したように、水平線、垂直遠近歪、及び水平遠近歪と同一の位置を有する。メディア編集ユーザインタフェースはまた、図22Aにおいて上述されたメディア編集ユーザインタフェースと同様の構成要素を含む。しかしながら、図22Aにおいて上述されたメディア編集ユーザインタフェースとは対照的に、デバイス600は、表現2430bによって表されたキャプチャされたメディアが写真メディアであることを判定する。その結果、デバイス600は、写真メディアが写真を編集する特定の1組の編集ツールを有さないことを判定する。また、この判定に従って、デバイス600は、写真メディアを編集するメディア編集モードアフォーダンスを表示せずに、編集モードアフォーダンス2210b~2210dを(例えば、ポートレートモードメディア編集モードアフォーダンス2210aなどの第4のメディア編集アフォーダンスの代わりに)表示する。具体的には、編集モードアフォーダンス2210b~2210dは、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。図24Bに示すように、視覚特性編集モードアフォーダンス2210bは、モード選択インジケータ2202bによって示すように、選択される。その結果、デバイス600は、図22B~図22Cで論じられた同様の技術を使用して、視覚特性編集ツールアフォーダンス2214を表示する。 In FIG. 24A, device 600 detects tap gesture 2450a at a location corresponding to editing affordance 644a. As shown in FIG. 24B, in response to detecting tap gesture 2450a, device 600 replaces the media viewer user interface with a media editing user interface (eg, as described above with respect to FIGS. 22A-22B). ). The media editing user interface includes representation 2430b, which corresponds to representation 2430a in FIG. 24A. That is, representation 2430b shows the same representation of the captured media and has the same positions for the horizontal line, vertical perspective, and horizontal perspective as described above with respect to representation 2430a. The media editing user interface also includes components similar to the media editing user interface described above in FIG. 22A. However, in contrast to the media editing user interface described above in FIG. 22A, device 600 determines that the captured media represented by representation 2430b is photographic media. As a result, the device 600 determines that the photo media does not have a specific set of editing tools for editing photos. Also, in accordance with this determination, device 600 does not display media editing mode affordances for editing photographic media, but replaces editing mode affordances 2210b-2210d (e.g., a fourth media editing mode affordance such as portrait mode media editing mode affordance 2210a). (instead of affordances). Specifically, edit mode affordances 2210b-2210d include visual property edit mode affordance 2210b, filter edit mode affordance 2210c, and image content edit mode affordance 2210d. As shown in FIG. 24B, visual property editing mode affordance 2210b is selected, as indicated by mode selection indicator 2202b. As a result, device 600 displays visual property editing tool affordance 2214 using similar techniques discussed in FIGS. 22B-22C.

図24Bでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する位置でのタップジェスチャ2450bを検出する。図24Cに示すように、タップジェスチャ2450bを検出したことに応じて、デバイス600は、デバイスが画像コンテンツ編集モードで表現を編集するように構成されることを示すように、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを表示する。更には、デバイス600は、視覚特性編集ツールアフォーダンス2214を、画像コンテンツ編集ツールアフォーダンス2218に置き換える。画像コンテンツ編集ツールアフォーダンス2218を表示することは、(表現の水平線の位置を補正するための)歪み矯正編集ツールアフォーダンス2218aと、(表現の垂直遠近歪を補正するための)垂直視点編集ツールアフォーダンス2218bと、(表現の水平遠近歪を補正するための)水平視点編集ツールアフォーダンス2218cと、を同時に表示することを含む。デバイス600は、歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示し、これは、歪み矯正編集ツールアフォーダンス2218aの上部に隣接して表示されるツール選択インジケータ2204aによって示される。歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示することに加えて、デバイス600はまた、調整可能なストレート化コントロール2258aの中心付近の位置にストレート化コントロールインジケーション2258a1を表示する。 In FIG. 24B, device 600 detects tap gesture 2450b at a location corresponding to image content editing mode affordance 2210d. As shown in FIG. 24C, in response to detecting tap gesture 2450b, device 600 displays image content editing mode affordance 2210d to indicate that the device is configured to edit the representation in image content editing mode. A mode selection indicator 2202d is displayed below. Additionally, device 600 replaces visual property editing tool affordance 2214 with image content editing tool affordance 2218 . Displaying image content editing tool affordances 2218 includes a distortion correction editing tool affordance 2218a (to correct the horizontal line position of the representation) and a vertical viewpoint editing tool affordance 2218b (to correct vertical perspective distortion of the representation). and a horizontal viewpoint editing tool affordance 2218c (to correct horizontal perspective distortion of the representation). Device 600 displays undistorted editing tool affordance 2218a as selected, as indicated by tool selection indicator 2204a displayed adjacent to the top of undistorted editing tool affordance 2218a. In addition to displaying the straightening editing tool affordance 2218a as selected, the device 600 also displays a straightening control indication 2258a1 at a location near the center of the adjustable straightening control 2258a.

図24Cでは、デバイス600は、表現2430bに向けられたデピンチジェスチャ2450cを検出する。図24Dに示すように、デピンチジェスチャ2450cを検出したことに応じて、デバイス600は、表現2430bのズームイン表現(例えば、2×ズーム)に対応する表現2430cを表示することにより、表現2430bのズームレベル(例えば、1×ズーム)を変更する。ズームインの結果として、表現2430cは、矩形プリズム2432及び水平線2438の一部分を示し、一方、矩形プリズム2432及び水平線2438の別の部分の表示を停止される。水平線2438の表示された部分は、対角線であり、水平線2438の一部の点は、異なるy値である。表現2430cはまた、鳥2440を含み続け、これは、表現2430bの左上に表示された。 In FIG. 24C, device 600 detects de-pinch gesture 2450c directed at representation 2430b. As shown in FIG. 24D, in response to detecting de-pinch gesture 2450c, device 600 zooms in representation 2430b by displaying representation 2430c corresponding to a zoomed-in representation (eg, 2× zoom) of representation 2430b. Change the level (eg, 1x zoom). As a result of zooming in, representation 2430c shows a portion of rectangular prism 2432 and horizontal line 2438, while another portion of rectangular prism 2432 and horizontal line 2438 ceases to be displayed. The displayed portion of horizontal line 2438 is diagonal and some points of horizontal line 2438 are at different y values. Representation 2430c also continued to include bird 2440, which was displayed in the upper left of representation 2430b.

更には、図24Dに示すように、デバイス600は、表現2430cによって表されたキャプチャされたメディアが、方法1100に関連して記載されるものと同様の技術を使用してキャプチャされたと判定した。したがって、キャプチャされたメディアは、表現2430cとして表示される視覚コンテンツ(例えば、図10E~図10Gにおいてメディアをキャプチャするときに、ライブプレビュー630内に表示されるようにキャプチャされた視覚コンテンツ)と、表現2430cとして表示されない追加の視覚コンテンツ(例えば、図10E~図10Gにおいてメディアをキャプチャするときに、インジケータ領域602及びコントロール領域606内に表示されるようにキャプチャされた視覚コンテンツ、過剰にキャプチャされたコンテンツ)と、を含む。いくつかの実施形態では、追加の視覚コンテンツは、視覚コンテンツの所定の空間的境界の外側(例えば、当初キャプチャされたフレームの外側、又は図10E~図10Gにおけるライブプレビュー630の外側)にある視覚コンテンツを含むことができる。いくつかの実施形態では、キャプチャされたメディアに対応するデータファイルは、表現2430cとして表示される視覚コンテンツと、表現2430cとして表示されない追加の視覚コンテンツと、を含む。デバイス600が表現2430cによって表されたキャプチャされたメディアが追加のデータを含むと判定した結果として、デバイス600は、(キャプチャされたメディアの表現を自動的に編集する)自動調整アフォーダンス1036bを表示する。いくつかの実施形態では、デバイス600が、表現2430cによって表されたキャプチャされたメディアが追加の視覚コンテンツを含まないと判定する場合、デバイス600は、自動調整アフォーダンス1036bを表示しない。 Further, as shown in FIG. 24D, device 600 determined that the captured media represented by representation 2430c was captured using techniques similar to those described with respect to method 1100. Thus, captured media is visual content displayed as representation 2430c (eg, visual content captured as displayed within live preview 630 when capturing media in FIGS. 10E-10G); Additional visual content not displayed as representation 2430c (eg, visual content captured to be displayed within indicator region 602 and control region 606 when capturing media in FIGS. 10E-10G, overcaptured content) and In some embodiments, the additional visual content is visual content outside the predetermined spatial boundaries of the visual content (eg, outside the originally captured frame or outside the live preview 630 in FIGS. 10E-10G). Can contain content. In some embodiments, the data file corresponding to the captured media includes visual content displayed as representation 2430c and additional visual content not displayed as representation 2430c. As a result of device 600 determining that the captured media represented by representation 2430c includes additional data, device 600 displays auto-adjust affordance 1036b (which automatically edits the representation of the captured media). . In some embodiments, if device 600 determines that the captured media represented by representation 2430c does not include additional visual content, device 600 does not display auto-adjust affordance 1036b.

図24Dでは、デバイス600は、調整可能なストレート化コントロール2258aに向けられたジェスチャ2450d(左向きフリック、又はドラッグジェスチャ)を検出する。図24Eに示すように、ジェスチャ2450dを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。デバイス600は、ジェスチャ2450dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ストレート化コントロールインジケーション2258a1を、調整可能なストレート化コントロール2258a上の新しい位置に動かし、値インジケータ2248aを表示する。ジェスチャ2450dの大きさ及び方向により、デバイス600に、調整可能なストレート化コントロール2258aの最右端のティックマーク(例えば、最大値)により近い新しい位置に、ストレート化コントロールインジケーション2258a1を表示させる。更には、デバイス600は、表現2430dを表示し、ここで、表現2430dは、調整可能なストレート化コントロール2258a上のストレート化コントロールインジケーション2258a1の新しい位置に対応する値に基づいて調整された表現2430cのバージョンである。表現2430dによって示されるように、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるまで(例えば、水平線の各点が同一のy値を有する場合)、表現2430cを時計回りに回転させる。キャプチャされたメディアが表現2430dに表示されなかった追加のコンテンツを含むため、デバイス600は、鳥2440が表現2430dに表示され続けるように、表現2430cを回転させている間に追加の視覚コンテンツを利用する(例えば、持ち込む)。表現2430cに表示されない追加の視覚コンテンツ(例えば、画像がキャプチャされたときに、インジケータ領域602内に表示されない視覚コンテンツ)を利用することにより、デバイス600は、表現2430d内の視覚コンテンツの表示を維持することができる。対照的に、いくつかの実施形態では、鳥2440は、表現2430dに表示され続けない。例えば、キャプチャされたメディアが、表示されていない追加の視覚コンテンツを含まないとき、デバイス600は、ジェスチャ2450dを検出したことに応じて、表現2404cを回転させるときに点線2466より上の領域をクロップアウトする。明確にするために図24D~図24Eに示すように、デバイス600は、点線2466より上の領域をクロップアウトして、調整された表現を矩形に見えるようにする(例えば、クロップされない場合、点線2466より上の領域の一部分は、メディア編集ユーザインタフェースの外側にある)。したがって、点線2466でクロッピング後、デバイス600は、図24Eの点線2466より上の領域を表示することを停止する。いくつかの実施形態では、垂直遠近歪を補正することは、表現の視点を垂直方向(例えば、下から上)に傾けることを含む。いくつかの実施形態では、垂直視点を補正することは、表現内の水平線を調整することを含み、これにより、表現が、垂直視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24D, device 600 detects gesture 2450d (left flick or drag gesture) directed at adjustable straightening control 2258a. As shown in FIG. 24E, in response to detecting gesture 2450d, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. Device 600 moves straightening control indication 2258a1 to a new position on adjustable straightening control 2258a based on the magnitude and direction (e.g., swipe speed, length) of gesture 2450d, and the value indicator 2248a is displayed. The magnitude and direction of gesture 2450d causes device 600 to display straighten control indication 2258a1 at a new location closer to the rightmost tick mark (eg, maximum value) of adjustable straighten control 2258a. Further, device 600 displays representation 2430d, where representation 2430d is adjusted representation 2430c based on the value corresponding to the new position of straightening control indication 2258a1 on adjustable straightening control 2258a. version. As shown by representation 2430d, device 600 rotates representation 2430c clockwise until horizontal line 2438 appears to travel only along the x-axis of the representation (eg, if each point of the horizontal line has the same y-value). rotate to Since the captured media includes additional content that was not displayed in representation 2430d, device 600 utilizes additional visual content while rotating representation 2430c such that bird 2440 continues to be displayed in representation 2430d. (e.g. bring in). By utilizing additional visual content not displayed in representation 2430c (eg, visual content not displayed within indicator region 602 when the image was captured), device 600 maintains display of visual content within representation 2430d. can do. In contrast, in some embodiments bird 2440 does not continue to be displayed in representation 2430d. For example, when the captured media does not include additional visual content that is not displayed, device 600 crops the area above dotted line 2466 when rotating representation 2404c in response to detecting gesture 2450d. out. As shown in FIGS. 24D-24E for clarity, device 600 crops out the area above dotted line 2466 to make the adjusted representation appear rectangular (eg, the dotted line if not cropped). A portion of the area above 2466 is outside the media editing user interface). Thus, after cropping at dotted line 2466, device 600 stops displaying the area above dotted line 2466 in FIG. 24E. In some embodiments, correcting vertical perspective distortion includes tilting the viewpoint of the representation vertically (eg, from bottom to top). In some embodiments, correcting the vertical viewpoint includes adjusting horizontal lines within the representation so that the representation visually appears as if the vertical viewpoint has changed within the representation. .

図24Eでは、デバイス600は、表現2430dに向けられたピンチングジェスチャ2450eを検出する。図24Fに示すように、ピンチングジェスチャ2450eを検出したことに応じて、デバイス600は、表現2430bが図24Cに表示された以前のズームレベルまで、表現2430dをズームアウトすることによって、表現2430eを表示する。表現2430eに示すように、デバイス600は、表現2430dに調整とともに表示された、水平線2438の一部分を表示し続ける。特に、デバイス600はまた、水平線2438の全体が表現のx軸に沿ってのみ進むように見えるように(例えば、水平線の各点が同一のy値を有する場合)調整しながら、表現2430dに表示されなかった水平線2438の一部分を表示する。したがって、デバイス600(図24E~図24Dによって示されるように)は、表現のズームレベルとは無関係に、表現への調整を行い及び維持することができる。 In FIG. 24E, device 600 detects pinching gesture 2450e directed at representation 2430d. As shown in FIG. 24F, in response to detecting pinching gesture 2450e, device 600 displays representation 2430e by zooming out representation 2430d to the previous zoom level at which representation 2430b was displayed in FIG. 24C. do. As shown in representation 2430e, device 600 continues to display the portion of horizontal line 2438 displayed with alignment in representation 2430d. In particular, device 600 also adjusts the horizontal line 2438 as a whole to appear to travel only along the x-axis of the representation (eg, if each point of the horizontal line has the same y-value), while adjusting the Display the portion of the horizontal line 2438 that was not drawn. Accordingly, the device 600 (as illustrated by FIGS. 24E-24D) can make and maintain adjustments to the representation regardless of the zoom level of the representation.

図24Fでは、デバイス600は、垂直視点編集ツールアフォーダンス2218bに対応する位置でのタップジェスチャ2450fを検出する。図24Gに示すように、タップジェスチャ2450fを検出したことに応じて、デバイス600は、デバイス600がタップジェスチャ2250h及び/又は2250nを検出したことに応じて、上述したものと同様の技術を実行する。図24Gでは、デバイス600は、調整可能なストレート化コントロール2258a及びストレート化コントロールインジケーション2258a1の表示を、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204bを表示し、かつツール選択インジケータ2204aを表示することを停止して、デバイス600が垂直遠近歪調整モードで動作するように構成されていることを示す。 In FIG. 24F, the device 600 detects a tap gesture 2450f at a location corresponding to vertical viewpoint editing tool affordance 2218b. As shown in FIG. 24G, in response to detecting tap gesture 2450f, device 600 performs techniques similar to those described above in response to device 600 detecting tap gesture 2250h and/or 2250n. . In FIG. 24G, device 600 replaces display of adjustable straightening control 2258a and straightening control indication 2258a1 with display of adjustable vertical perspective control 2258b and vertical perspective control indication 2258b1. Additionally, device 600 displays tool selection indicator 2204b and stops displaying tool selection indicator 2204a to indicate that device 600 is configured to operate in the vertical perspective adjustment mode.

図24Gでは、デバイス600は、調整可能な垂直遠近歪コントロール2258bに向けられたジェスチャ2450g(右向きフリック、又はドラッグジェスチャ)を検出する。図24Hに示すように、ジェスチャ2450gを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、ジェスチャ2450gの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、垂直遠近歪コントロールインジケーション2258b1を、調整可能な垂直遠近歪コントロール2258b上の新しい位置に動かす。ジェスチャ2450gを検出したことに応じて、デバイス600はまた、調整可能な垂直遠近歪コントロール2258b上の垂直遠近歪コントロールインジケーション2258b1の新しい位置に対応する値に基づいて調整された表現2430fを表示する。その結果、デバイス600は、図24Gの垂直線2434a~2434cと比較して、メディアユーザインタフェースの底部に向かって動かすときに、収束が少なくなるように垂直線2434a~2434cを修正する。図24Hに示すように、垂直線2434a~2434cは、平行であるように見える。 In FIG. 24G, device 600 detects gesture 2450g (a right flick or drag gesture) directed at adjustable vertical perspective control 2258b. As shown in FIG. 24H, in response to detecting gesture 2450g, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. Specifically, device 600 displays vertical perspective control indication 2258b1 on adjustable vertical perspective control 2258b based on the magnitude and direction (e.g., swipe speed, length) of gesture 2450g. Move to new position. In response to detecting gesture 2450g, device 600 also displays adjusted representation 2430f based on the value corresponding to the new position of vertical perspective control indication 2258b1 on adjustable vertical perspective control 2258b. . As a result, device 600 modifies vertical lines 2434a-2434c such that they converge less when moving toward the bottom of the media user interface compared to vertical lines 2434a-2434c of FIG. 24G. As shown in FIG. 24H, vertical lines 2434a-2434c appear to be parallel.

図24Hでは、表現2430fを表示している間に、デバイス600は、水平視点編集ツールアフォーダンス2218cに対応する位置でのタップジェスチャ2450hを検出する。図24Iに示すように、タップジェスチャ2450hを検出したことに応じて、デバイス600は、デバイス600がタップジェスチャ2250h、2250n、及び2450fを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示を、調整可能な水平遠近歪コントロール2258c及び調整可能な水平遠近歪コントロールインジケーション2258c1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204cを表示し、かつツール選択インジケータ2204bを表示することを停止して、デバイス600が水平遠近歪調整モードで動作するように構成されていることを示す。 In FIG. 24H, while displaying representation 2430f, device 600 detects tap gesture 2450h at a position corresponding to horizontal-view editing tool affordance 2218c. As shown in FIG. 24I, in response to detecting tap gesture 2450h, device 600 performs techniques similar to those described above in response to device 600 detecting tap gestures 2250h, 2250n, and 2450f. do. Specifically, the device 600 displays an adjustable vertical perspective control 2258b and a vertical perspective control indication 2258b1, an adjustable horizontal perspective control 2258c and an adjustable horizontal perspective control indication 2258c1. replace with Additionally, device 600 displays tool selection indicator 2204c and stops displaying tool selection indicator 2204b to indicate that device 600 is configured to operate in the horizontal perspective adjustment mode.

図24Iでは、デバイス600は、調整可能な水平遠近歪コントロール2258cに向けられたジェスチャ2450i(左向きフリック、又はドラッグジェスチャ)を検出する。図24Jに示すように、ジェスチャ2450iを検出したことに応じて、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応じて、上述したものと同様の技術を実行する。具体的には、デバイス600は、ジェスチャ2450iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、水平遠近歪コントロールインジケーション2258c1を、調整可能な水平遠近歪コントロール2258c上の新しい位置に動かす。ジェスチャ2450iを検出したことに応じて、デバイス600はまた、調整可能な水平遠近歪コントロール2258c上の水平遠近歪コントロールインジケーション2258c1の新しい位置に対応する値に基づいて調整された表現2430fのバージョンである表現2430gを表示する。その結果、デバイス600は、メディアユーザインタフェースを右から左へ動かすときに、収束が少なくなるように水平線2436a~2436bを修正する。図24Jでは、水平線2436a~2436bの収束が低減されると、矩形プリズム2432の横方向面2432bの長さが低減される。いくつかの実施形態では、水平遠近歪を補正することは、表現の視点を水平方向(例えば、左から右)に傾けることを含む。いくつかの実施形態では、水平視点を補正することは、表現内の垂直線を調整することを含み、これにより、表現が、水平視点が表現内で変更したかのように視覚的に表示される。 In FIG. 24I, device 600 detects gesture 2450i (a left flick or drag gesture) directed at adjustable horizontal perspective control 2258c. As shown in FIG. 24J, in response to detecting gesture 2450i, device 600 performs techniques similar to those described above in response to device 600 detecting gestures 2250d, 2250i, and/or 2250o. do. Specifically, device 600 displays horizontal perspective control indication 2258c1 on adjustable horizontal perspective control 2258c based on the magnitude and direction (e.g., swipe speed, length) of gesture 2450i. Move to new position. In response to detecting gesture 2450i, device 600 also displays an adjusted version of representation 2430f based on the value corresponding to the new position of horizontal perspective control indication 2258c1 on adjustable horizontal perspective control 2258c. Display a representation 2430g. As a result, the device 600 modifies the horizontal lines 2436a-2436b so that there is less convergence when moving the media user interface from right to left. In FIG. 24J, as the convergence of horizontal lines 2436a-2436b is reduced, the length of lateral face 2432b of rectangular prism 2432 is reduced. In some embodiments, correcting horizontal perspective distortion includes tilting the viewpoint of the representation horizontally (eg, from left to right). In some embodiments, correcting the horizontal viewpoint includes adjusting vertical lines within the representation so that the representation visually appears as if the horizontal viewpoint has changed within the representation. be.

いくつかの実施形態では、垂直遠近歪及び/又は水平遠近歪を調整するとき、デバイス600は、表現に表示されていない追加のコンテンツを利用して、キャプチャされたメディア内の垂直又は水平遠近歪を調整する(例えば、低減する又は増加させる)。いくつかの実施形態では、水平線、垂直、又は水平の表現を調整後、デバイス600は、調整された表現内に含まれない視覚コンテンツのグレーアウト(例えば、半透明)部分を表示する。いくつかの実施形態では、デバイス600は、調整された表現と、調整された表現内に含まれない視覚コンテンツとの間に視覚境界部を表示する。 In some embodiments, when adjusting vertical perspective and/or horizontal perspective, the device 600 utilizes additional content not displayed in the representation to adjust the vertical or horizontal perspective within the captured media. is adjusted (eg, decreased or increased). In some embodiments, after adjusting the horizontal, vertical, or horizontal representation, device 600 displays grayed out (eg, translucent) portions of visual content that are not included in the adjusted representation. In some embodiments, device 600 displays a visual boundary between the adjusted representation and visual content not included in the adjusted representation.

図24J~図24Oは、アスペクト比調整モードで動作するデバイス600を示す。アスペクト比調整モードで動作するとき、デバイス600は、図8J及び図14A~図14Uに関して上述したものと同様の技術を使用する。図24Jでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応するジェスチャ2450jを検出する。図24Kに示すように、ジェスチャ2450jを検出したことに応じて、デバイス600は、表現2430g上に視覚境界部608を表示する。図24Kでは、図14Aと同様に、デバイス600は、視覚部分1404と暗色部分1406との間に視覚境界部608を表示する。視覚部分1404は、既定の入力位置1410A~1410Dを含む。加えて、ジェスチャ2450jを検出したことに応じて、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1及び垂直アスペクト比コントロールアフォーダンス626c2を表示する。視覚境界部608の水平側がその垂直側よりも長いため、デバイス600は、(例えば、太さ、ハイライト)水平アスペクト比コントロールアフォーダンス626c1を強調し、水平インジケータ2462dを表示して、視覚境界部608が水平向き(例えば、横向き)であることを示す。更に、ジェスチャ2450jを検出したことに応じて、デバイス600は、元の(オリジナル)アスペクト比ツール2470a、自由形式アスペクト比ツール2470b、正方形(スクエア)のアスペクト比ツール2470c、及び3:2アスペクト比ツール2470ddを含む、アスペクト比ツールアフォーダンス2470を表示する。デバイス600は、表現2430gのアスペクト比が3:2アスペクト比であることを判定する。したがって、デバイス600は、3:2アスペクト比ツール2470ddの周囲にアスペクト比選択インジケータ2470dd1を表示する。いくつかの実施形態では、アスペクト比ツールアフォーダンス2470に関連して本明細書に記載される構成要素及び技術は、上述のアスペクト比コントロール1470及び818に関連して述べられたものと同じである。 Figures 24J-24O show the device 600 operating in aspect ratio adjustment mode. When operating in aspect ratio adjustment mode, device 600 uses techniques similar to those described above with respect to Figures 8J and 14A-14U. In FIG. 24J, device 600 detects gesture 2450j corresponding to aspect ratio control affordance 626c. As shown in FIG. 24K, in response to detecting gesture 2450j, device 600 displays visual border 608 over representation 2430g. In FIG. 24K, device 600 displays visual border 608 between visual portion 1404 and dark portion 1406, similar to FIG. 14A. Visual portion 1404 includes default input locations 1410A-1410D. Additionally, in response to detecting gesture 2450j, device 600 displays horizontal aspect ratio control affordance 626c1 and vertical aspect ratio control affordance 626c2. Because the horizontal side of visual boundary 608 is longer than its vertical side, device 600 emphasizes (e.g., thickness, highlights) horizontal aspect ratio control affordance 626c1 and displays horizontal indicator 2462d to extend visual boundary 608. indicates that the is oriented horizontally (eg, sideways). Further, in response to detecting gesture 2450j, device 600 displays original aspect ratio tool 2470a, freeform aspect ratio tool 2470b, square aspect ratio tool 2470c, and 3:2 aspect ratio tool. Display aspect ratio tool affordances 2470, including 2470dd. Device 600 determines that the aspect ratio of representation 2430g is a 3:2 aspect ratio. Accordingly, device 600 displays aspect ratio selection indicator 2470dd1 around 3:2 aspect ratio tool 2470dd. In some embodiments, the components and techniques described herein in connection with aspect ratio tool affordance 2470 are the same as those described in connection with aspect ratio controls 1470 and 818 above.

図24Kでは、デバイス600は、既定の入力位置1410Bに向けられたジェスチャ2450k(例えば、下向きドラッグジェスチャ)を検出する。図24Lに示すように、ジェスチャ2450kを検出したことに応じて、デバイス600は、図14E~図14Iの1495Bに関連して上述したものと同様の技術を使用して、視覚境界部608のアスペクト比を変更する。デバイス600が視覚境界部608のアスペクト比を変更すると、デバイス600は、視覚境界部608のアスペクト比(例えば、視覚境界部608に取り囲まれた表現のアスペクト比と同じ)が既定のアスペクト比(例えば、正方形、3:2)ではないことを判定する。この判定の結果として、デバイス600は、アスペクト比ツール2470ddの周りのアスペクト比選択インジケータ2470dd1を表示することを停止し、自由形式アスペクト比ツール2470ddの周りにアスペクト比選択インジケータ2470b1を表示する。視覚境界部608のアスペクト比が変化するとき、デバイス600はまた、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定する。この判定の結果として、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1を強調する代わりに、(例えば、太さ、ハイライト)垂直アスペクト比コントロールアフォーダンス626c2を強調する。デバイス600は、水平インジケータ2462dの表示を、垂直インジケータ2462eに置き換える。更には、デバイス600が、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定するため(例えば、垂直又は縦向き)、デバイス600は、3:2アスペクト比ツール2470ddを、2:3アスペクト比ツール2470d(例えば、逆のアスペクト比ツール)に置き換え、視覚境界部608の幅が視覚境界部608の長さよりも短いという比較と一致するようにする。 In FIG. 24K, the device 600 detects a gesture 2450k (eg, downward drag gesture) directed at the default input location 1410B. As shown in FIG. 24L, in response to detecting gesture 2450k, device 600 adjusts the aspect of visual boundary 608 using techniques similar to those described above with respect to 1495B of FIGS. 14E-14I. Change the ratio. When the device 600 changes the aspect ratio of the visual bounds 608, the device 600 changes the aspect ratio of the visual bounds 608 (e.g., the same as the aspect ratio of the representation enclosed by the visual bounds 608) to the default aspect ratio (e.g. , square, 3:2). As a result of this determination, device 600 stops displaying aspect ratio selection indicator 2470dd1 around aspect ratio tool 2470dd and displays aspect ratio selection indicator 2470b1 around freeform aspect ratio tool 2470dd. The device 600 also determines that the vertical side of the visual boundary 608 is larger than the horizontal side of the visual boundary 608 when the aspect ratio of the visual boundary 608 changes. As a result of this determination, device 600 emphasizes vertical aspect ratio control affordances 626c2 (eg, thickness, highlights) instead of emphasizing horizontal aspect ratio control affordances 626c1. Device 600 replaces the display of horizontal indicator 2462d with vertical indicator 2462e. Further, for device 600 to determine that the vertical side of visual bounds 608 is greater than the horizontal side of visual bounds 608 (e.g., vertical or portrait orientation), device 600 uses 3:2 aspect ratio tool 2470dd. , 2:3 aspect ratio tool 2470d (eg, the inverse aspect ratio tool) to match the comparison that the width of the visual boundary 608 is less than the length of the visual boundary 608 .

図24Lでは、デバイス600は、2:3アスペクト比ツール2470dの位置に対応するタップジェスチャ2450lである。図24Mに示すように、タップジェスチャ2450lを検出したことに応じて、デバイス600は、アスペクト比ツールアフォーダンス2470を右にシフトすることにより、メディア編集ユーザインタフェースの中心に、2:3アスペクト比ツール2470dを表示する。図24Mでは、デバイス600は、元のアスペクト比ツール2470a及び自由形式アスペクト比ツール2470bを表示することを停止し、3:4アスペクト比ツール2470e及び3:5アスペクト比ツール2470fを、2:3アスペクト比ツール2470dの右に表示する。デバイス600はまた、アスペクト比ツール2470dが選択されることを示すために、2:3アスペクト比ツール2470dの周囲に選択アスペクト比選択インジケータ2470d1を表示する。ジェスチャ2450lを検出したことに応じて、デバイス600はまた、自動的に(更なるユーザ入力なしで)、2:3アスペクト比で視覚境界部608を表示する。 In FIG. 24L, device 600 is at tap gesture 2450l corresponding to the position of 2:3 aspect ratio tool 2470d. As shown in FIG. 24M, in response to detecting tap gesture 2450l, device 600 shifts aspect ratio tool affordance 2470 to the right to bring 2:3 aspect ratio tool 2470d to the center of the media editing user interface. display. In FIG. 24M, the device 600 stops displaying the original aspect ratio tool 2470a and the freeform aspect ratio tool 2470b and replaces the 3:4 aspect ratio tool 2470e and the 3:5 aspect ratio tool 2470f with the 2:3 aspect ratio tool. Displayed to the right of ratio tool 2470d. Device 600 also displays a selected aspect ratio selection indicator 2470d1 around 2:3 aspect ratio tool 2470d to indicate that aspect ratio tool 2470d is selected. In response to detecting gesture 2450l, device 600 also automatically (without further user input) displays visual border 608 in a 2:3 aspect ratio.

図24Mでは、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1の位置に対応するタップジェスチャ2450mを検出する。図24Nに示すように、ジェスチャタッピング2450mを検出したことに応じて、デバイス600は、自動的に(更なるユーザ入力なしで)、2:3アスペクト比での視覚境界部608の表示を、3:2アスペクト比での視覚境界部608の表示に置き換える。特に、デバイス600は、表現2430gを回転させることなく、この置き換えを実行する(例えば、視覚境界部608のあるアスペクト比を逆のアスペクト比に変更する)。更には、ジェスチャ2450mを検出したことに応じて、デバイス600は、水平アスペクト比アフォーダンス626c1を再強調し、かつ垂直アスペクト比アフォーダンス626c2を強調することをやめる。デバイス600はまた、アスペクト比ツールアフォーダンス2470を、図24Mに表示されるものである逆のアスペクト比ツールに変更する(例えば、2:3アスペクト比ツール2470dから対応する3:2アスペクト比ツール2470dd、3:4アスペクト比ツール2470eから対応する4:3アスペクト比ツール2470ee、及び5:3アスペクト比ツール2470fから対応する3:5アスペクト比ツール2470ffに変更する)。 In FIG. 24M, device 600 detects tap gesture 2450m corresponding to the position of horizontal aspect ratio control affordance 626c1. As shown in FIG. 24N, in response to detecting gesture tapping 2450m, device 600 automatically (without further user input) causes display of visual border 608 at a 2:3 aspect ratio to 3 : Replaces the display of the visual border 608 with a 2 aspect ratio. In particular, device 600 performs this replacement (eg, changes one aspect ratio of visual border 608 to the opposite aspect ratio) without rotating representation 2430g. Further, in response to detecting gesture 2450m, device 600 re-emphasizes horizontal aspect ratio affordance 626c1 and de-emphasizes vertical aspect ratio affordance 626c2. Device 600 also changes aspect ratio tool affordances 2470 to inverse aspect ratio tools that are displayed in FIG. 24M (eg, from 2:3 aspect ratio tool 2470d to corresponding 3:4 aspect ratio tools 2470e to corresponding 4:3 aspect ratio tools 2470ee and 5:3 aspect ratio tools 2470f to corresponding 3:5 aspect ratio tools 2470ff).

図24Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ2450nを検出する。図24Oに示すように、タップジェスチャ2450nを検出したことに応じて、デバイス600は、視覚境界部608(例えば、視覚部分1404)に取り囲まれた視覚コンテンツを含む、表現2430hを表示する。したがって、表現2430hは、3:2アスペクト比のアスペクト比を有し、これは、タップジェスチャ2450mを検出したことに応じて、表示された。タップジェスチャ2450nがまた、アスペクト比調整モードで動作しないようにデバイス600を構成するため、デバイス600は、画像コンテンツ編集ツールアフォーダンス2218を再表示し、かつアスペクト比編集ツールアフォーダンス2470を表示することを停止する。 In FIG. 24N, device 600 detects tap gesture 2450n at a location corresponding to aspect ratio control affordance 626c. As shown in FIG. 24O, in response to detecting tap gesture 2450n, device 600 displays representation 2430h including visual content surrounded by visual border 608 (eg, visual portion 1404). Thus, representation 2430h has an aspect ratio of 3:2 aspect ratio, which was displayed in response to detecting tap gesture 2450m. Device 600 redisplays image content editing tool affordance 2218 and stops displaying aspect ratio editing tool affordance 2470 because tap gesture 2450n also configures device 600 not to operate in aspect ratio adjustment mode. do.

図24Oでは、デバイス600は、フリップコントロールアフォーダンス2402aに対応する位置でのタップジェスチャ2450oを検出する。図24Pに示すように、タップジェスチャ2450oを検出したことに応じて、デバイス600は、表現2430iを表示する。表現2430iは、表現2430hの視覚コンテンツから水平に反転された(例えば、水平鏡像を作成する)視覚コンテンツを含む。例えば、矩形プリズム2432上に座っている人は、表現2430h内の右側から表現2430iの左側に移動している。いくつかの実施形態では、別のフリップコントロールアフォーダンス上のジェスチャ2450oを検出したことに応じて、デバイス600は、表現を垂直に反転させ(例えば、垂直鏡像を作成する)、鳥2440は、調整された表現の底部に表示される。 In FIG. 24O, device 600 detects tap gesture 2450o at a location corresponding to flip control affordance 2402a. As shown in FIG. 24P, in response to detecting tap gesture 2450o, device 600 displays representation 2430i. Representation 2430i includes visual content that is horizontally flipped (eg, creates a horizontal mirror image) from the visual content of representation 2430h. For example, a person sitting on rectangular prism 2432 is moving from the right side in representation 2430h to the left side in representation 2430i. In some embodiments, in response to detecting gesture 2450o on another flip control affordance, device 600 vertically flips the representation (eg, creates a vertical mirror image) and bird 2440 is adjusted. displayed at the bottom of the representation.

図24Pでは、デバイス600は、回転コントロールアフォーダンス2402bに対応する位置でのタップジェスチャ2450pを検出する。図24Qに示すように、タップジェスチャ2450pを検出したことに応じて、デバイス600は、表現2430iを回転させて、表現2430jを表示する。表現2430jは、2:3アスペクト比を有し、これは、表現2430iの逆のアスペクト比である。しかしながら、ジェスチャが水平アスペクト比コントロールアフォーダンス626c1又は垂直アスペクト比コントロールアフォーダンス626c2に向けられていると検出されたときとは対照的に、デバイス600は、回転コントロールアフォーダンス2402bに対応する位置でのジェスチャに応じて、表現全体を回転させる。 In FIG. 24P, device 600 detects tap gesture 2450p at a location corresponding to rotation control affordance 2402b. As shown in FIG. 24Q, in response to detecting tap gesture 2450p, device 600 rotates representation 2430i to display representation 2430j. Representation 2430j has a 2:3 aspect ratio, which is the inverse aspect ratio of representation 2430i. However, device 600 responds to the gesture at a location corresponding to rotation control affordance 2402b, as opposed to when the gesture is detected to be directed at horizontal aspect ratio control affordance 626c1 or vertical aspect ratio control affordance 626c2. to rotate the entire expression.

図24Qでは、デバイス600は、リセットアフォーダンス2402dに対応する位置でのタップジェスチャ2450qを検出する。図24Rに示すように、リセットアフォーダンス2402d上のタップジェスチャ2450qを検出したことに応じて、デバイス600は、表現2430bを表示し、図24B~図24Qにおける表現を行う調整を行わない。調整を再設定すると、デバイス600は、調整可能な画像コンテンツコントロール2258a~2258cに対応する以前の調整された値を再設定する(デバイス600が調整可能な水平遠近歪コントロール2258c上の水平遠近歪インジケーション2258c1を図24Iのその初期位置に動かすことによって示されるように)。その結果、画像コンテンツ値インジケータ2248a~2248cは、調整可能な画像コンテンツコントロール2258a~2258cの周りの表示を停止させる。 In FIG. 24Q, device 600 detects tap gesture 2450q at a location corresponding to reset affordance 2402d. As shown in FIG. 24R, in response to detecting tap gesture 2450q on reset affordance 2402d, device 600 displays representation 2430b and does not make adjustments to the representations in FIGS. 24B-24Q. Upon resetting the adjustment, the device 600 resets the previous adjusted values corresponding to the adjustable image content controls 2258a-2258c (the device 600 resets the horizontal perspective indicator on the adjustable horizontal perspective control 2258c). 2258c1 to its initial position in FIG. 24I). As a result, image content value indicators 2248a-2248c cease to display around adjustable image content controls 2258a-2258c.

図24Rでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ2450rを検出する。図24Sに示すように、タップジェスチャ2450rを検出したことに応じて、デバイス600は、追加の入力なしで自動的に、表現2430kを表示する。表現2430kは、デバイス600が自動調整アルゴリズムに基づいて調整された表現2430bのバージョンである。図24Rにおいて、水平線2438の位置、垂直遠近歪(例えば、収束がより少ない垂直線2434a~2434c)、及び水平遠近歪(例えば、収束がより少ない水平線2436a~2436b)は、表現2430aの水平線2438の位置、垂直遠近歪、水平遠近歪とは異なる。 In FIG. 24R, device 600 detects tap gesture 2450r at a location corresponding to auto-tuning affordance 1036b. As shown in FIG. 24S, in response to detecting tap gesture 2450r, device 600 automatically displays representation 2430k without additional input. Representation 2430k is a version of representation 2430b in which device 600 has been adjusted based on the automatic adjustment algorithm. 24R, the position of horizontal line 2438, the vertical perspective distortion (eg, less converging vertical lines 2434a-2434c), and the horizontal perspective distortion (eg, less converging horizontal lines 2436a-2436b) of horizontal line 2438 in representation 2430a. Different from position, vertical perspective distortion and horizontal perspective distortion.

図24Sでは、デバイス600は、取消アフォーダンス1036dに対応する位置でのタップジェスチャ2450sを検出する。図24Tに示すように、タップジェスチャ2450sを検出したことに応じて、デバイス600は、任意の調整なしのキャプチャされたメディアの表現である表現2430aを表示する。図24Tでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのジェスチャ2450tを検出する。図24Uに示すように、タップジェスチャ2450tを検出したことに応じて、デバイス600は、追加の入力なしで自動的に、表現2430kを表示し、ここで、表現2430a(例えば、表現2430bと同じ)は、自動調整アルゴリズムに基づいて調整されている。 In FIG. 24S, device 600 detects tap gesture 2450s at a location corresponding to undo affordance 1036d. As shown in FIG. 24T, in response to detecting tap gesture 2450s, device 600 displays representation 2430a, which is a representation of the captured media without any adjustments. In FIG. 24T, device 600 detects gesture 2450t at a location corresponding to auto-adjust affordance 1036b. As shown in FIG. 24U, in response to detecting tap gesture 2450t, device 600 automatically displays representation 2430k without additional input, where representation 2430a (e.g., same as representation 2430b). is adjusted based on an auto-adjustment algorithm.

図24Uでは、デバイス600は、表現2430kに向けられたジェスチャ2450u(例えば、スワイプジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450uを検出したことに応じて、デバイス600は、キャプチャされたメディアの表現2480aを表示する。図24Vにおいて、キャプチャされたメディアは、ライブアニメーション化された画像メディアに対応する。 In FIG. 24U, device 600 detects gesture 2450u (eg, swipe gesture) directed at representation 2430k. As shown in FIG. 24V, in response to detecting gesture 2450u, device 600 displays representation 2480a of captured media. In FIG. 24V, the captured media corresponds to live animated image media.

図24V~図24ABは、アニメーション化された画像メディア(例えば、図24V~図24Y)及びビデオメディア(例えば、図24Z~図24AB)を編集するように構成されているデバイス600を示す。具体的には、図24V~図24ABは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。メディアの視覚特性(例えば、輝度、自動視覚特性値)を使用して、アニメーション化された画像メディア及びビデオ画像メディアを編集する、図22AE~図22AMとは対照的に、図24V~図24ABは、画像コンテンツを使用して、アニメーション化された画像メディア及びビデオ画像メディアを類似の方法(例えば、表現の水平線の位置を変更する)で編集することを示す。 Figures 24V-24AB show a device 600 configured to edit animated image media (eg, Figures 24V-24Y) and video media (eg, Figures 24Z-24AB). Specifically, FIGS. 24V-24AB show that the media editing user interface displays similar user interface elements when device 600 is configured to edit animated image media and video image media. indicate. 24V-24AB, in contrast to FIGS. 22AE-22AM, which edit animated and video image media using the media's visual properties (e.g., luminance, automatic visual property values). , image content is used to edit animated image media and video image media in similar ways (eg, changing the position of the horizontal line of the representation).

図24Vに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2480kを表示する。表現2480kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202eによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する(例えば、図22AEに関連して上述したように)。 As shown in FIG. 24V, device 600 displays a representation 2480k of the captured animated image media. Because representation 2480k is an animated representation of image media, device 600 displays animated image media edit mode affordance 2210e. Animated image media editing mode affordance 2210e is selected, as indicated by mode selection indicator 2202e below animated image media editing mode affordance 2210e, so device 600 can access animated image media editing mode affordance 2210e. 2220 (eg, as described above in connection with FIG. 22AE).

図24Vでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する位置でのタップジェスチャ2450vを検出する。図24Wに示すように、タップジェスチャ2450vを検出したことに応じて、デバイス600は、アニメーション化された画像メディア内の表現2480k(又はサムネイル表現2420k)の位置に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、画像コンテンツ編集ツールアフォーダンス2218に置き換え、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを、図24Cに関連して論じられるものと同様の技術を使用して表示する。 In FIG. 24V, device 600 detects tap gesture 2450v at a location corresponding to image content editing mode affordance 2210d. As shown in FIG. 24W, in response to detecting tap gesture 2450v, device 600 places a scrubber indication control at a position corresponding to the position of representation 2480k (or thumbnail representation 2420k) in the animated image media. Scrubber 2240 is displayed with 2240a. In addition, device 600 replaces animated image media affordance 2220 with image content editing tool affordance 2218 and mode selection indicator 2202d under image content editing mode affordance 2210d, discussed in connection with FIG. 24C. display using techniques similar to

図24Wでは、デバイス600は、タップジェスチャ2450wを検出する。図24Xに示すように、タップジェスチャ2450wを検出したことに応じて、デバイス600は、(例えば、自動的に、ユーザ入力なしで)、表現2480kを歪み矯正して、表現2480lを表示する。図24Xでは、デバイス600は、スクラバ2240に向けられたジェスチャ2450x(例えば、左向きドラッグジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450xを検出したことに応じて、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図24Xのスクラバインジケーションコントロール2240aの位置の左にある新しい位置に動かす。更に、ジェスチャ2450xを検出したことに応じて、デバイス600は、表現2480lを、表現2480mに置き換える。表現2480mは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2480mは、表現2480l(例えば、又は2480k)が対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図24Vに示すように、表現2480kを表示している間に、デバイス600が画像コンテンツ編集ツールアフォーダンス2218の1つ以上の現在値を調整して、表現2480lを表示したが、表現2480mはまた、画像コンテンツ編集ツールアフォーダンス2218の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の画像コンテンツ編集ツール値に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。デバイス600は、図24Z~図24ABに示すように、ビデオメディアについての類似のプロセスを完了する。図24AA及び図24ABに示すように、図24Z~24AAにおける画像コンテンツ値を調整した後、デバイス600は、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の異なる表現への変化を閲覧できる。 In FIG. 24W, device 600 detects tap gesture 2450w. As shown in FIG. 24X, in response to detecting tap gesture 2450w, device 600 dewarps representation 2480k (eg, automatically and without user input) and displays representation 2480l. In FIG. 24X, device 600 detects gesture 2450x directed toward scrubber 2240 (eg, left drag gesture). In response to detecting gesture 2450x, device 600 moves scrubber indication control 2240a to a new position on scrubber 2240, as shown in FIG. 24V. Specifically, device 600 moves scrubber indication control 2240a to a new position to the left of the position of scrubber indication control 2240a in FIG. 24X. Further, in response to detecting gesture 2450x, device 600 replaces expression 2480l with expression 2480m. Representation 2480 m shows one of the animated images at a time corresponding to the new position of scrubber indication control 2240 a on scrubber 2240 . Representation 2480m thus corresponds to a time in the animated image media that is different than the time in the animated image media to which representation 2480l (eg, or 2480k) corresponds. As shown in FIG. 24V, while displaying representation 2480k, device 600 adjusted one or more current values of image content editing tool affordances 2218 to display representation 2480l, but representation 2480m also: Adjusted based on one or more adjusted current values of image content editing tool affordances 2218 . Therefore, adjusting one of the representations in the animated image media at a particular point in time also adjusts the other representations in the animated image media at different points in time. Therefore, even if the animated representation of the image media is not displayed while the device 600 is adjusting one or more current values associated with one or more image content editing tool values, the user can use the scrubber 2240 to view changes to the representation after adjusting one or more current values. Device 600 completes a similar process for video media, as shown in FIGS. 24Z-24AB. As shown in FIGS. 24AA and 24AB, after adjusting the image content values in FIGS. You can view changes in

図25A~図25Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2500は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 25A-25B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. Method 2500 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 2500 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2500は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2500 provides an intuitive way to edit captured media. This method reduces the user's cognitive burden in editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)を介して、第1の視覚メディア(例えば、画像、ビデオのフレーム)の第1の表現(例えば、表現2430a~2430k)(2504)と、第1の視覚メディアの遠近歪(例えば、2218-c)(例えば、(画像の現在の水平線、垂直線、平行線の)歪み状態、遠近歪状態)に対する現在の調整量(例えば、垂直度、水平度、又は水平線調整度)のインジケーション(例えば、2258a1~2258c1)(例えば、スライダ上の第1の位置にあるスライダコントロール)を含む調整可能なコントロール(2506)(例えば、2258a~2258c)(例えば、グラフィカルコントロール要素(例えば、スライダ))と、を同時に表示することを含む第1のユーザインタフェース(例えば、クロッピングユーザインタフェース及び/又はプロスペクティブ編集ユーザインタフェース)を表示する(2502)。 The electronic device (eg, 600) provides a first representation (eg, representations 2430a-2430k) of a first visual media (eg, image, frame of video) via a display device (eg, a touch-sensitive display) ( 2504) and the current adjustment amount (eg, , verticality, horizontality, or horizontal adjustment) (eg, 2258a1-2258c1) (eg, a slider control in the first position on the slider) (eg, 2258a 2258c) (e.g., graphical control elements (e.g., sliders)) and displaying a first user interface (e.g., a cropping user interface and/or a prospective editing user interface) (2502). .

いくつかの実施形態では、第1のユーザインタフェースは、第1のアフォーダンス(例えば、2218c)を含み(2508)、第1のアフォーダンスは、選択されると、第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの水平遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、水平遠近歪調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が水平遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2545c)を構成する。いくつかの実施形態では、第1のユーザインタフェースは、第2のアフォーダンス(例えば、2218b)を含み(2510)、第2のアフォーダンスは、選択されると、第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの垂直遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、垂直遠近歪調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が垂直遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454b)を構成する。 In some embodiments, the first user interface includes (2508) a first affordance (e.g., 2218c), which, when selected, is for horizontal perspective distortion of the first visual medium. Updating an indication of the adjustable control to indicate the current amount of adjustment, and adjustable to allow adjustment of the current amount of adjustment to horizontal perspective distortion of the first visual medium based on user input. configure the controls. In some embodiments, in response to detecting a tap on the horizontal perspective adjustment affordance, the electronic device determines that the current amount of perspective adjustment for the first visual medium is equal to the current amount of horizontal perspective adjustment. Configure the adjustable control (eg, 2545c) to correspond to . In some embodiments, the first user interface includes (2510) a second affordance (e.g., 2218b), which, when selected, is for vertical perspective distortion of the first visual medium. Updating an indication of the adjustable control to indicate the current amount of adjustment, and adjustable to allow adjustment of the current amount of adjustment to vertical perspective distortion of the first visual medium based on user input. configure the controls. In some embodiments, in response to detecting a tap on the vertical perspective adjustment affordance, the electronic device determines that the current amount of perspective adjustment for the first visual medium is equal to the current amount of vertical perspective adjustment. Configure the adjustable control (eg, 2454b) to correspond to .

いくつかの実施形態では、第1のアフォーダンス(例えば、2218c)及び第2のアフォーダンス(例えば、2218b)を(例えば、同時に)表示している間に、選択されると、第1の視覚メディアの第1の表現内の視覚コンテンツを回転させる現在の調整量を示す(例えば、視覚コンテンツ内の第1の実視水平線を歪み矯正する)ように、調整可能なコントロールのインジケーションを更新する、第3のアフォーダンス(例えば、2218a)を同時に表示する(2512)。いくつかの実施形態では、視点歪み矯正調整アフォーダンス上のタップを検出したことに応じて、電子デバイスは、第1の視覚メディアの水平線補正の現在の調整量が水平線補正の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454a)を構成する。 In some embodiments, when selected while displaying (eg, simultaneously) the first affordance (eg, 2218c) and the second affordance (eg, 2218b), the update the indication of the adjustable control to indicate the current amount of adjustment to rotate the visual content in the first representation (e.g., straighten the first visible horizon line in the visual content); 3 affordances (eg, 2218a) are displayed simultaneously (2512). In some embodiments, in response to detecting a tap on the perspective distortion correction adjustment affordance, the electronic device determines whether the current amount of horizon correction adjustment for the first visual medium matches the current amount of horizon correction adjustment. Configure the adjustable controls (eg, 2454a) accordingly.

表示デバイス上に、第1のユーザインタフェースを表示している間に、電子デバイスは、調整可能なコントロール(例えば、2258a~2258c)に向けられた(例えば、上で)ジェスチャ(例えば、スワイプ又はドラッグジェスチャ)を含むユーザ入力(例えば、2450d、2450g、2450i)を検出する(2514)。 While displaying the first user interface on the display device, the electronic device performs a gesture (eg, swipe or drag) directed (eg, up) at the adjustable controls (eg, 2258a-2258c). Detect 2514 user input (eg, 2450d, 2450g, 2450i), including gestures).

調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応じて、電子デバイスは、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量(例えば、ジェスチャが第1の大きさを有するときに第1の量によって現在の量の遠近歪、及びジェスチャが第1の大きさとは異なる第2の大きさを有するときに第1の量とは異なる第2の量によって遠近歪を調整する現在の量の遠近歪を調整する)で第1の視覚メディア(例えば、画像、ビデオのフレーム)の第2の表現(例えば、2530c~2430k)を表示する(2516)。いくつかの実施形態では、第2の表現が特定の位置(例えば、表示を停止する前の第1の表現の以前の位置)に表示されると、第2の表現を、第1の表現に置き換える。編集可能パラメータを調整する調整可能なコントロールを提供すること、及び調整可能なコントロールに向けられた入力に応じて、調整された表現を表示することにより、ユーザが意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting user input that includes a gesture directed at an adjustable control, the electronic device displays on the display device a respective amount of adjustment to perspective distortion (e.g., A current amount of perspective distortion by a first amount when the gesture has a first magnitude, and a second amount different from the first amount when the gesture has a second magnitude different from the first magnitude. Display a second representation (eg, 2530c-2430k) of the first visual media (eg, image, frame of video) (adjusting the perspective distortion by an amount of 2) (adjusting the perspective distortion by the current amount) 2516). In some embodiments, when the second representation is displayed at a particular position (eg, the previous position of the first representation before it stopped displaying), the second representation is replaced with the first representation. replace. Providing an adjustable control that adjusts an editable parameter and unintentionally changing the presentation by the user by displaying the adjusted presentation in response to input directed to the adjustable control and at the same time provide the user with more control over the device by allowing the user to perceive that the input to the adjustable control changes the presentation based on the input. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping users make appropriate inputs and reducing user errors), and by enabling users to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では、遠近歪は、水平遠近歪(例えば、2218c、2436a~2436b)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の水平遠近歪の量は、第1の視覚メディアの第2の表現の水平遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、水平遠近歪が少ない。 In some embodiments, perspective distortion corresponds to horizontal perspective distortion (eg, 2218c, 2436a-2436b). In some embodiments, the amount of horizontal perspective distortion of the first representation of the first visual medium is different than the amount of horizontal perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less horizontal perspective distortion.

いくつかの実施形態では、遠近歪は、垂直遠近歪(例えば、2218b、2434a~2434b)(例えば、実世界で平行な線は画像内では平行線でないように、カメラ角度及び/又はレンズによって引き起こされる画像の歪み)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の垂直遠近歪の量は、第1の視覚メディアの第2の表現の垂直遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、垂直遠近歪が少ない。 In some embodiments, perspective distortion is vertical perspective distortion (eg, 2218b, 2434a-2434b) (eg, caused by camera angle and/or lens such that parallel lines in the real world are not parallel lines in the image). image distortion). In some embodiments, the amount of vertical perspective distortion of the first representation of the first visual medium is different than the amount of vertical perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less vertical perspective distortion.

いくつかの実施形態では、第1の表現は、第1の実視水平線(例えば、2218a、2238)を含む。いくつかの実施形態では、第1の視覚メディアの第1の表現が、第1の視覚メディアの第1の表現内の視覚境界部(例えば、画像内の水平線(例えば、スカイライン))に対する回転度を含んでいる間に、電子デバイスは、第1の視覚メディアの第1の表現の回転度を変化させる入力を検出する。いくつかの実施形態では、第1の視覚メディアの第1の表現の回転度を変化させる(例えば、表現内の水平線を歪み矯正するために表現内の視覚コンテンツを回転させる)入力を検出したことに応じて、電子デバイスは、入力に基づいて判定された量だけ第1の視覚メディアの第1の表現を回転させる(例えば、画像の縁部に対して画像の水平線がまっすぐになるように、第1の視覚メディアの表現を回転させる)。 In some embodiments, the first representation includes first apparent horizontal lines (eg, 2218a, 2238). In some embodiments, the first representation of the first visual media is rotated with respect to a visual boundary (eg, a horizontal line (eg, skyline) in the image) within the first representation of the first visual media. , the electronic device detects an input that changes the degree of rotation of the first representation of the first visual media. In some embodiments, having detected an input that changes the degree of rotation of the first representation of the first visual media (eg, rotates visual content within the representation to dewarp horizontal lines within the representation). In response, the electronic device rotates the first representation of the first visual medium by an amount determined based on the input (e.g., so that horizontal lines of the image are straight with respect to the edges of the image, rotate the representation of the first visual medium).

いくつかの実施形態では、第1の表現(例えば、2430g)は、第1の視覚メディアの第1の視覚コンテンツを含む。いくつかの実施形態では(例えば、図24K~図24L)、第1の視覚メディアの第1の表現が第1の視覚コンテンツ(例えば、メディアがキャプチャされたときにキャプチャされたコンテンツ)を含んでいる間に、電子デバイスは、第1の表現の第1の視覚コンテンツを変化させる1組の1つ以上の入力(例えば、自動調整アフォーダンス上のタップ、画像をクロップするために第1の位置から第2の位置への視覚境界部のドラッグ)を検出する。いくつかの実施形態では(例えば、図24K~図24L)、第1の視覚メディアの第1の表現の第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出したことに応じて、電子デバイスは、第1の視覚メディアの第1の視覚コンテンツとは異なる第1の視覚メディアの第2の視覚コンテンツを含む第1の視覚メディアの第4の表現を表示する。いくつかの実施形態では(例えば、図24K~図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより多く含む。いくつかの実施形態では(例えば、図24K~図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では(例えば、図24K~24L)、第2の視覚コンテンツは、追加のコンテンツ(例えば、第1の表現に表されない視覚コンテンツデータ(例えば、メディアをキャプチャしたときからの、動作に有用なコンテンツ及びデータ)を含む、第2の視覚メディアに対応するファイルからのコンテンツ)である。 In some embodiments, the first representation (eg, 2430g) includes the first visual content of the first visual medium. In some embodiments (eg, FIGS. 24K-24L), the first representation of the first visual media includes first visual content (eg, content captured when the media was captured). , while the electronic device receives a set of one or more inputs that change the first visual content of the first representation (e.g., a tap on an auto-adjust affordance, a first position to crop the image, a dragging of the visual boundary to the second position). In some embodiments (eg, FIGS. 24K-24L), in response to detecting a set of one or more inputs that change the first visual content of the first representation of the first visual media. , the electronic device displays a fourth representation of the first visual medium that includes second visual content of the first visual medium that is different than the first visual content of the first visual medium. In some embodiments (eg, FIGS. 24K-24L), the third representation includes more visual content of the first visual medium than the visual content included in the first representation. In some embodiments (eg, FIGS. 24K-24L), the third representation includes less visual content of the first visual medium than the visual content included in the first representation. In some embodiments, the third representation includes less visual content of the first visual medium than the visual content included in the first representation. In some embodiments (eg, FIGS. 24K-24L), the second visual content is additional content (eg, visual content data not represented in the first representation (eg, motion data from when the media was captured). content from files corresponding to the second visual media), including content and data useful for visual media).

いくつかの実施形態では、第1のユーザインタフェースは、自動調整アフォーダンス(例えば、1036b)を含む。いくつかの実施形態では(例えば、図24R)、電子デバイスは、自動調整アフォーダンスに対応する入力(例えば、タップジェスチャ)を検出する。いくつかの実施形態では(例えば、図24R~図24S)、自動調整アフォーダンスに対応する入力を検出したことに応じて、電子デバイスは、(例えば、第1の視覚メディアのアルゴリズム及び特性に基づいて)水平遠近歪パラメータ(例えば、水平遠近歪補正量)、垂直遠近歪パラメータ(例えば、垂直遠近歪補正量)、回転パラメータ(例えば、回転量)からなる群から選択される第1の視覚メディアの2つ以上のパラメータの現在値を自動的に(例えば、更なるユーザ入力なしで;値を指定するユーザ入力なしで)、調整する。いくつかの実施形態では、2つ以上のパラメータの選択された現在値の大きさ、方向は、視覚メディアのコンテンツの分析に基づいて、デバイスによって自動的に選択される(例えば、視覚メディアの分析に基づいて、より多くの水平遠近歪が検出されると、より多くの水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない水平遠近歪が検出されると、より少ない水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの垂直遠近歪が検出されると、より多くの垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない垂直遠近歪が検出されると、より少ない垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの水平線回転が検出されると、より多くの回転が選択され、視覚メディアの分析に基づいて、より少ない水平線回転が検出されると、より少ない回転が選択される)。いくつかの実施形態では、デバイスは、水平遠近歪パラメータ(例えば、量の水平遠近歪補正)、垂直遠近歪パラメータ(例えば、量の垂直遠近歪補正)、及び回転パラメータ(例えば、回転量)、及び視覚コンテンツパラメータへ変更を自動的に適用する。いくつかの実施形態では、視覚コンテンツの表現は、他のパラメータを調整している間に、(例えば、より多くの又は少ないコンテンツを表示するために)自動的にクロップされる。いくつかの実施形態では、自動調整アフォーダンスに対応する入力を検出したことに応じて、電子デバイスは、2つ以上の調整されたパラメータの調整された現在値に基づいて、第1の視覚メディアの第5の表現を(例えば、自動的に)表示する。自動調整アルゴリズムに基づいて表現を自動的に更新することにより、ユーザは、自動調整アルゴリズムが表現をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first user interface includes auto-tuning affordances (eg, 1036b). In some embodiments (eg, FIG. 24R), the electronic device detects input (eg, tap gesture) corresponding to auto-tuning affordances. In some embodiments (eg, FIGS. 24R-24S), in response to detecting input corresponding to auto-tuning affordances, the electronic device (eg, based on algorithms and characteristics of the first visual media) ) a first visual media selected from the group consisting of a horizontal perspective parameter (e.g., horizontal perspective correction amount), a vertical perspective parameter (e.g., vertical perspective correction amount), and a rotation parameter (e.g., rotation amount); Adjust the current values of two or more parameters automatically (eg, without further user input; without user input specifying values). In some embodiments, the magnitudes, directions of the selected current values of the two or more parameters are automatically selected by the device based on analysis of the content of the visual media (e.g., analysis of the visual media Based on the analysis of visual media, more horizontal perspective correction is selected when more horizontal perspective distortion is detected, and less horizontal perspective correction is selected when less horizontal perspective distortion is detected, based on the visual media analysis. When distortion correction is selected and more vertical perspective distortion is detected based on visual media analysis, more vertical perspective correction is selected and less vertical perspective distortion is detected based on visual media analysis. is detected, less vertical perspective correction is selected, based on the analysis of the visual media; when more horizontal rotation is detected, more rotation is selected, based on the analysis of the visual media. , the less horizontal rotation is detected, the lesser rotation is selected). In some embodiments, the device provides a horizontal perspective distortion parameter (e.g., amount of horizontal perspective correction), a vertical perspective distortion parameter (e.g., amount of vertical perspective correction), and a rotation parameter (e.g., amount of rotation), and automatically apply changes to visual content parameters. In some embodiments, the representation of the visual content is automatically cropped (eg, to display more or less content) while adjusting other parameters. In some embodiments, in response to detecting input corresponding to an auto-tuning affordance, the electronic device adjusts the first visual media based on the adjusted current values of the two or more adjusted parameters. Display (eg, automatically) the fifth representation. By automatically updating the representation based on the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed the representation. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では(例えば、24R~24U)、自動調整アフォーダンスを含む第1のユーザインタフェースを表示している間に、電子デバイスは、第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力(例えば、第3のユーザインタフェースをナビゲーションするアフォーダンス上のタップ)を検出する。いくつかの実施形態では(例えば、24R~24U)、第2の1組の1つ以上の入力を検出したことに応じて、電子デバイスは、(例えば、メディア編集ユーザインタフェースを表示する前に、メディア編集ユーザインタフェースを表示した後に)表示デバイス上に、第3のユーザインタフェース(例えば、メディアビューワインタフェース(例えば、メディアギャラリー))を表示する。いくつかの実施形態では(例えば、24R~24U)、第3のユーザインタフェースを表示することは、第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することを含む。いくつかの実施形態では(例えば、24R~24U)、第2の視覚メディアが第2の視覚メディアの第2の視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現内に表されない視覚コンテンツ)(例えば、第2の視覚メディアに対応するファイルは、表現内に表されない視覚コンテンツデータ(例えば、編集動作を含む、動作に有用なコンテンツ及びデータ)を含む)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含むとの判定に従って、電子デバイスは、自動調整アフォーダンス(例えば、図24Rの1036b)を表示する。いくつかの実施形態では、第2の視覚メディアが第2の視覚メディアの第2の視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現内に表されない視覚コンテンツ)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まないとの判定に従って、電子デバイスは、自動調整アフォーダンスを表示することをやめる。 In some embodiments (eg, 24R-24U), while displaying a first user interface including auto-adjusting affordances, the electronic device displays a third user interface different from the first user interface. A second set of one or more inputs corresponding to a request to display is detected (eg, taps on affordances to navigate a third user interface). In some embodiments (eg, 24R-24U), in response to detecting the second set of one or more inputs, the electronic device (eg, prior to displaying a media editing user interface: Displaying a third user interface (eg, a media viewer interface (eg, a media gallery)) on the display device (after displaying the media editing user interface). In some embodiments (eg, 24R-24U), displaying the third user interface includes displaying a representation of at least a portion of the second visual content of the second visual medium. In some embodiments (eg, 24R-24U), the second visual medium is represented in the representation of the second visual content of the second visual medium (eg, at least a portion of the visual content of the second visual medium). (e.g., the file corresponding to the second visual media contains visual content data not represented in the representation (e.g., content and data useful for action, including editing action)). Upon determining that additional visual content is outside the bounds (e.g., outside the originally captured frame of the visual content or outside the currently cropped frame of the visual content), the electronic device automatically adjusts affordances. (eg, 1036b in FIG. 24R). In some embodiments, the second visual medium is a predetermined visual representation of the second visual content of the second visual medium (eg, visual content not represented in the representation of at least a portion of the visual content of the second visual medium). Upon determining not to include additional visual content outside a spatial boundary (e.g., outside an originally captured frame of the visual content or outside a currently cropped frame of the visual content), the electronic device: Stop showing auto-tuning affordances.

いくつかの実施形態では(例えば、24R~24U)、第1の視覚メディアの第1の表現は、第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まない第1の視覚メディアの視覚コンテンツの第1の部分の表現である(例えば、第1の部分に基づく)。いくつかの実施形態では、第1の視覚メディアの第2の表現は、第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツの少なくとも一部分を含む(例えば、第2の表現の遠近歪は、第1の表現を生成するために使用されなかった視覚コンテンツデータ(例えば、第2のメディアがキャプチャされた時点でキャプチャ又は記憶されたコンテンツデータ)を使用して生成された)。 In some embodiments (eg, 24R-24U), the first representation of the first visual media is defined within predetermined spatial boundaries of the captured visual content when the first visual media was also captured. A first portion of the visual content of the first visual medium that does not include additional visual content outside (e.g., outside the originally captured frame of the visual content or outside the currently cropped frame of the visual content) (eg, based on the first part). In some embodiments, the second representation of the first visual media is outside a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured (e.g., outside of the visual content's including at least a portion of the additional visual content outside the originally captured frame or outside the currently cropped frame of the visual content (e.g., the perspective distortion of the second representation produces the first representation) (eg, content data captured or stored at the time the second media was captured) that was not used to create the visual content data (eg, content data that was captured or stored at the time the second media was captured).

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1のアスペクト比で表示される(例えば、図24J)。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を検出する。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応じて、電子デバイスは、第1のアスペクト比とは異なる第2のアスペクト比で第1の視覚メディアの第6の表現を表示する(例えば、図24K)。いくつかの実施形態では、アスペクト比ボタンは、第1の視覚メディアの表現のアスペクト比を調整するために使用される調整可能なコントロール(例えば、スライダ)を有する。ユーザ入力を受信したことに応じて、以前に表示されたアスペクト比のアスペクト比を自動的に変更することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the first visual media is displayed in a first aspect ratio (eg, Figure 24J). In some embodiments, the first user interface includes aspect ratio affordances (eg, 626c). In some embodiments, while displaying the first representation of the first visual media, the electronic device detects user input corresponding to aspect ratio affordances. In some embodiments, in response to detecting user input corresponding to aspect ratio affordances, the electronic device renders a sixth aspect of the first visual media at a second aspect ratio different than the first aspect ratio. Display the representation (eg, FIG. 24K). In some embodiments, the aspect ratio button has an adjustable control (eg, slider) that is used to adjust the aspect ratio of the representation of the first visual media. By automatically changing the aspect ratio of previously displayed aspect ratios in response to receiving user input, the user can see aspect ratio changes to the representation without rotating the representation. . By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1の向き(例えば、元の向き、非回転の向き)で表示される。いくつかの実施形態では、第1のアスペクト比は、第1の水平アスペクト比値(例えば、長さ)及び第1の垂直アスペクト比値(例えば、2430d)を有する。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c1又は626c2)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を表示する(例えば、2450m)。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応じて、電子デバイスは、第1の視覚メディアの第1の表現を回転させることなく、第1のアスペクト比とは異なる第3のアスペクト比に対応する第1の視覚メディアの一部分を示す視覚的フィードバックを表示する(例えば、図24N;608)。いくつかの実施形態では、第3のアスペクト比は、第1の垂直アスペクト比値と等しい第2の水平アスペクト比値を有する。いくつかの実施形態では、第3のアスペクト比は、第1の水平アスペクト比値と等しい第2の垂直アスペクト比値を有する(例えば、第2のアスペクト比は、第1のアスペクト比値の反転(例えば、逆数)である(例えば、3:4と比較して4:3、9:16と比較して16:9))。ユーザ入力を受信したことに応じて、以前に表示されたアスペクト比の逆のアスペクト比を自動的に表示することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first representation of the first visual media is displayed in a first orientation (eg, original orientation, non-rotated orientation). In some embodiments, the first aspect ratio has a first horizontal aspect ratio value (eg, length) and a first vertical aspect ratio value (eg, 2430d). In some embodiments, the first user interface includes aspect ratio affordances (eg, 626c1 or 626c2). In some embodiments, while displaying the first representation of the first visual media, the electronic device displays user input corresponding to aspect ratio affordances (eg, 2450m). In some embodiments, in response to detecting user input corresponding to an aspect ratio affordance, the electronic device converts the first representation of the first visual media from the first aspect ratio to the first aspect ratio without rotating the first representation. Visual feedback is displayed showing a portion of the first visual media corresponding to a different third aspect ratio (eg, FIG. 24N; 608). In some embodiments, the third aspect ratio has a second horizontal aspect ratio value equal to the first vertical aspect ratio value. In some embodiments, the third aspect ratio has a second vertical aspect ratio value equal to the first horizontal aspect ratio value (e.g., the second aspect ratio is the inverse of the first aspect ratio value (e.g. reciprocal) (e.g. 4:3 compared to 3:4, 16:9 compared to 9:16)). By automatically displaying an aspect ratio that is the inverse of a previously displayed aspect ratio in response to receiving user input, the user can see aspect ratio changes to the representation without rotating the representation. can be done. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレーム(例えば、ライブフォト又はビデオ)を含むとの判定に従って(例えば、図24Y~図24AB)、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示する。いくつかの実施形態では(例えば、図24Y~図24AB)、第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含まないとの判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することをやめる。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, upon determining that the first visual media includes multiple frames of content (eg, live photos or video) corresponding to different times (eg, FIGS. 24Y-24AB), the electronic device , displays adjustable controls for adjusting which frames of content corresponding to the first visual medium are displayed, along with one or more controls for adjusting perspective, cropping, and/or rotation of the image. In some embodiments (eg, FIGS. 24Y-24AB), following a determination that the first visual media does not include multiple frames of content corresponding to different times, the electronic device performs image perspective distortion, cropping , and/or cease displaying adjustable controls for adjusting which frames of content corresponding to the first visual media are displayed, along with one or more controls for adjusting rotation. By displaying frames of content at different time frames within the visual media, the user can see changes to the editable parameters without the user having to reapply specific changes to the editable parameters for each frame of the media. Visual feedback can be provided on how two or more particular frames of media (eg, video) are affected. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では(例えば、図24Y~図24AB)、視覚境界部(例えば、608)は、第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、第7の表現は、第1の視覚メディア内の第1の時間に対応する。いくつかの実施形態では、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロール(例えば、2240、2240a)を表示している間に、電子デバイスは、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出する。いくつかの実施形態では、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応じて、電子デバイスは、第1の視覚メディア内の第2の時間(例えば、ビデオ内の6分間)に対応する第1の視覚メディアの第8の表現を表示する。いくつかの実施形態では(例えば、図24Y~図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応じて、電子デバイスは、視覚境界部の表示を維持する。いくつかの実施形態では、視覚境界部は、第1の視覚メディアの第8の表現の第1の部分の周囲に表示される。いくつかの実施形態では(例えば、図24Y~図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する調整可能なコントロール(例えば、表示されている表現に基づいて更新されない)は、表示デバイス上のそれぞれの位置(例えば、固定の位置)に表示される(例えば、ビデオ上の固定の位置に表示されたクロッピングフレーム、クロッピングフレームは、異なるビデオのフレームが表示されている間に固定の位置に留まる)。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24Y-24AB), a visual border (eg, 608) is displayed around the first portion of the seventh representation of the first visual media and The representation corresponds to a first time within the first visual medium. In some embodiments, while displaying adjustable controls (eg, 2240, 2240a) that adjust which frames of content corresponding to the first visual media are displayed, the electronic device: Detecting requests to select time-based representations of the first visual media corresponding to respective times. In some embodiments, in response to detecting a request to select time-based representations of the first visual media corresponding to respective times, the electronic device selects a second time within the first visual media. Display an eighth representation of the first visual media corresponding to (eg, six minutes in the video). In some embodiments (eg, FIGS. 24Y-24AB), in response to detecting a request to select time-based representations of the first visual media corresponding to respective times, the electronic device displays visual boundaries keep the part visible. In some embodiments, a visual border is displayed around the first portion of the eighth representation of the first visual medium. In some embodiments (eg, FIGS. 24Y-24AB), adjustable controls select time-based representations of the first visual media corresponding to respective times (eg, based on the representation being displayed). not updated) are displayed at their respective positions (e.g. fixed positions) on the display device (e.g. cropping frames displayed at fixed positions on the video, cropping frames are different frames of the video displayed) (remains in a fixed position while By displaying frames of content at different time frames within the visual media, the user can see changes to the editable parameters without the user having to reapply specific changes to the editable parameters for each frame of the media. Visual feedback can be provided on how two or more particular frames of media (eg, video) are affected. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの第1の表現は、第1のズームレベル(例えば、1×ズーム;第1の倍率レベル)で表示される。いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、第1の視覚メディアの表現のズームレベルを変更する要求(例えば、2450e)(例えば、ピンチ又はデピンチジェスチャ)を検出する。いくつかの実施形態では(例えば、図24C~図24F)、第1の視覚メディアの表現のズームレベルを変更する要求を検出したことに応じて、電子デバイスは、第1のズームレベルとは異なる第2のズームレベル(例えば、2×ズーム)で(例えば、表現のズームレベルを変更することに向けられたジェスチャの大きさに基づいて)第1の視覚メディアの第9の表現を表示する。いくつかの実施形態では(例えば、図24C~図24F)、電子デバイスは、第2のズームレベルで画像を調整/編集するように構成される。いくつかの実施形態では、第9の表現が第1のズームレベルで表示される間(例えば、図24C~図24F)、電子デバイスは、視覚メディアの別の表現が異なるズームレベルで表示されるときに調整が維持されるように、表現を調整することができる。異なるズームレベルで表現を表示すること、及びユーザが特定のズームレベルにある間に、全てのズームレベルで表現に適用される表現の特定の特性を変更できるようにすることにより、ユーザは、全てのズームレベルで特定の変更を表現に再適用する必要なく、特定の変更を適用することができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24C-24F), the first representation of the first visual media is displayed at a first zoom level (eg, 1× zoom; first magnification level). . In some embodiments (eg, FIGS. 24C-24F), while displaying the first representation of the first visual media, the electronic device changes the zoom level of the representation of the first visual media. Detect a request (eg, 2450e) to (eg, pinch or de-pinch gesture). In some embodiments (eg, FIGS. 24C-24F), in response to detecting a request to change the zoom level of the representation of the first visual media, the electronic device changes the zoom level from the first zoom level to Displaying a ninth representation of the first visual media (eg, based on the magnitude of a gesture directed at changing the zoom level of the representation) at a second zoom level (eg, 2× zoom). In some embodiments (eg, FIGS. 24C-24F), the electronic device is configured to adjust/edit the image at the second zoom level. In some embodiments, the electronic device displays another representation of the visual media at a different zoom level while the ninth representation is displayed at a first zoom level (eg, FIGS. 24C-24F). Expressions can be adjusted so that coordination is maintained at times. By displaying representations at different zoom levels and by allowing the user to change certain characteristics of the representation that apply to representations at all zoom levels while the user is at a particular zoom level, the user can view all Specific changes can be applied without having to reapply specific changes to the representation at zoom levels of . By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では(例えば、図24A)、第1の視覚メディアの第1の表現(例えば、2430b)は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含む(例えば、第1の表現は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点に対応する修正されないもの(例えば、元の視点)を有する;第1の表現は、任意の追加された遠近歪を含まない)。いくつかの実施形態では(例えば、図24F)、第2の表現(例えば、2430e)(例えば、第1の視覚メディアの)は、カメラレンズの形状及び/又はカメラの位置に基づく遠近歪を低減するように調整される(例えば、第1の視覚メディアの第2の表現は、修正されていないもの(例えば、元の視点)とは異なるシミュレートされた視点を有し、シミュレートされた視点は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点以外である))。 In some embodiments (eg, FIG. 24A), the first representation (eg, 2430b) of the first visual media is perspective distortion based on the shape of the first camera lens and/or the position of the first camera. (e.g., the first representation has an unmodified (e.g., original viewpoint) corresponding to the viewpoint of the camera used to capture the first visual media at the time the media was captured; The first representation does not include any added perspective distortion). In some embodiments (eg, FIG. 24F), a second representation (eg, 2430e) (eg, of the first visual medium) reduces perspective distortion based on camera lens shape and/or camera position. (e.g., the second representation of the first visual media has a different simulated viewpoint than the unmodified one (e.g., the original viewpoint), and the simulated viewpoint is other than the viewpoint of the camera used to capture the first visual media at the time the media was captured)).

いくつかの実施形態では(例えば、図24B~図24J)、調整可能なコントロール(2258a~2258c)は、遠近歪を補正するコントロールに対応する。いくつかの実施形態では(例えば、図24B~図24J)、電子デバイスは、調整可能なコントロールに向けられたジェスチャを含むユーザ入力(例えば、2258a~2258cに向けられたユーザ入力)を検出したことに応じて、調整可能なコントロールに向けられたジェスチャの方向及び/又は大きさに従って、遠近歪の補正の量を更新する(例えば、インジケーションの表示を動かす、又は第2の位置でインジケーションを表示する)(例えば、ジェスチャの移動のより大きい距離及び/又は速さについてのより大きい量で補正の量を変更すること、並びにジェスチャの移動のより小さい距離及び/又は速さについてのより小さい量で補正の量を変更すること、(並びに、任意選択的に、遠近歪についてのそれぞれの調整量に対応するように、遠近歪についての調整の現在の量(例えば、垂直度、水平度、又は水平線調整)のインジケーションを変更すること)などの、ジェスチャの移動の距離及び/又は速さに基づいて選択される補正の量の変化の大きさを有する、ジェスチャが第1の方向にある場合に補正の量を増加すること、ジェスチャが第1の方向とは反対の、又は第1の方向とは実質的に反対の第2の方向にある場合に補正の量を減少すること)。遠近歪を補正するための異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避するのを支援すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、ユーザにデバイスの更なるコントロールを可能にする。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24B-24J), the adjustable controls (2258a-2258c) correspond to controls that correct perspective distortion. In some embodiments (eg, FIGS. 24B-24J), the electronic device has detected user input that includes a gesture directed at an adjustable control (eg, user input directed at 2258a-2258c). , update the amount of perspective correction according to the direction and/or magnitude of the gesture directed at the adjustable control (e.g., move the display of the indication, or move the indication at a second position). display) (e.g., changing the amount of correction by a larger amount for a larger distance and/or speed of movement of the gesture and a smaller amount for a smaller distance and/or speed of movement of the gesture (and, optionally, the current amount of adjustment for perspective distortion (e.g., verticality, horizontality, or if the gesture is in a first direction, with the magnitude of change in the amount of correction selected based on the distance and/or speed of movement of the gesture, such as changing indication of horizon adjustment; and decreasing the amount of correction if the gesture is in a second direction opposite or substantially opposite the first direction). To help the user avoid unintentionally changing the representation in an undesirable way by providing different adjustable controls for compensating for perspective distortion, and at the same time to the adjustable controls. By allowing the user to perceive that the input of changes the representation based on the input, it allows the user more control over the device. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

方法2500に関して上述された処理(例えば、図25A~図25B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2700、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 25A-25B) described above with respect to method 2500 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2700, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2500. Optionally includes one or more of the characteristics of various methods. For the sake of brevity, these details are not repeated below.

図26A~図26Uは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図27A~図27C、及び図28A~図28Bにおける処理を含む、以下で説明する処理を例示するために使用される。 26A-26U illustrate exemplary user interfaces for managing media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in FIGS. 27A-27C and 28A-28B.

具体的には、図26A~図26Uは、異なるレベルの光(例えば、可視光及び/又は周辺光)を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクスなどの閾値)を上回る光量を有する環境は、通常環境と呼ばれる。低光閾値(例えば、20ルクスなどの閾値)を下回る光量を有する環境は、低光環境と呼ばれる。更には、低光環境は、更に3つのカテゴリーに分割される。光の第1の範囲の間(例えば、20~10ルクス)の光量を有する低光環境は、標準低光環境と呼ばれる。光の第2の範囲の間(例えば、10~1ルクス)の光量を有する低光環境は、副標準低光環境と呼ばれる。また、光の第3の範囲の間(例えば、1ルクスなどの閾値を下回る)の光量を有する低光環境は、極副標準低光環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、デバイス600の1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定する。デバイス600が低光環境で動作しているとき、デバイス600(例えば、又はデバイス600に接続されたいくつかの他のシステム又はサービス)は、標準低光環境、副標準低光環境、又は極副標準低光環境で動作しているかどうかを判定する。デバイス600が標準低光環境で動作しているとき、デバイス600は、追加の入力(例えば、メディアをキャプチャする要求に応じて、デバイスがキャプチャ持続時間に従って複数の画像をキャプチャするかどうかのモード)なしで低光モードを自動的にオンにしない。他方では、デバイス600が副標準又は極副標準低光環境で動作しているとき、デバイス600は、追加のユーザ入力なしで、低光モードを自動的にオンにする。デバイス600が、副標準又は極副標準低光環境で動作しているときに追加のユーザ入力なしで、低光モードを自動的にオンにする一方、デバイス600は、各環境で異なる低光モードでメディアをキャプチャするように自動的に構成される。デバイス600が副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間(例えば、1秒又は2秒)に基づいて、メディアを自動的にキャプチャするように構成される。しかしながら、デバイス600が極副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間よりも長いキャプチャ持続時間に基づいて、メディアをキャプチャするように自動的に(追加のユーザ入力なしで)構成される。理解を向上させるために、図26A~図26Uのいくつかは、デバイス600がFOV内で検出している光量を示すグラフ的な説明図(例えば、光グラフ2680)を含む。いくつかの実施形態では、図18A~図18X、図19A~図19B、図20A~図20C、及び/又は図21~図21Cで論じられた1つ以上の技術を、以下で論じられた図26A~図26U、図27A~図27C、及び図28A~図28Bの1つ以上の技術と任意選択的に組み合わせてもよい。 Specifically, FIGS. 26A-26U illustrate device 600 operating in several environments having different levels of light (eg, visible light and/or ambient light). Environments with light levels above a low light threshold (eg, a threshold such as 20 lux) are referred to as normal environments. An environment with an amount of light below a low light threshold (eg, a threshold such as 20 lux) is called a low light environment. Additionally, low light environments are further divided into three categories. A low light environment having a light level between the first range of light (eg, 20-10 lux) is referred to as a standard low light environment. A low light environment with a light level between the second range of light (eg, 10-1 lux) is referred to as a sub-standard low light environment. Also, low-light environments with light levels between a third range of light (eg, below a threshold such as 1 lux) are referred to as very sub-standard low-light environments. In the examples below, device 600 detects, via one or more cameras, whether there is a change in the amount of light in the environment (eg, within the field of view (FOV) of one or more cameras of device 600). , determine whether the device 600 is operating in a low light environment or a normal environment. When the device 600 is operating in a low light environment, the device 600 (eg, or some other system or service connected to the device 600) operates in a standard low light environment, a substandard low light environment, or a very low light environment. Determine if it is operating in a standard low light environment. When the device 600 is operating in a standard low-light environment, the device 600 receives additional input (e.g., mode of whether the device captures multiple images according to the capture duration in response to a request to capture media). Do not automatically turn on low light mode without. On the other hand, when device 600 is operating in a sub-standard or ultra-sub-standard low light environment, device 600 automatically turns on low light mode without additional user input. While the device 600 automatically turns on the low light mode without additional user input when operating in sub-standard or ultra-sub-standard low light environments, the device 600 has a different low light mode in each environment. automatically configured to capture media in When device 600 is operating in a substandard low light environment, device 600 is configured to automatically capture media based on a fixed low light capture duration (eg, 1 second or 2 seconds). be. However, when the device 600 is operating in a very sub-standard low-light environment, the device 600 automatically (additional without user input). To improve understanding, some of Figures 26A-26U include graphical illustrations (eg, light graph 2680) showing the amount of light that device 600 is detecting within the FOV. In some embodiments, one or more of the techniques discussed in Figures 18A-18X, 19A-19B, 20A-20C, and/or It may optionally be combined with one or more of the techniques of 26A-26U, 27A-27C, and 28A-28B.

図26Aは、デバイス600の上部からデバイス600の底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 26A shows electronic device 600 displaying a camera user interface including live preview 630 extending from the top of device 600 to the bottom of device 600 . Live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (eg, and/or cameras). In some embodiments, live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of device 600 . In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 (eg, different portions of live preview 630). In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 .

図26Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。 The camera user interface of FIG. 26A includes an indicator area 602 and a control area 606 that are superimposed over the live preview 630 so that the indicators and controls can be displayed simultaneously with the live preview 630 . Camera display area 604 is located between indicator area 602 and control area 606 . Camera display area 604 does not substantially overlap with indicators or controls.

図26Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応じて、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 26A, indicator region 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator area 602 includes flash status indicator 602a. Flash status indicator 602a indicates whether the flash mode (e.g., the mode that controls flash operation upon request to capture media) is in automatic mode, on, off, or another mode (e.g., red-eye reduction mode). indicate.

図26Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示していることを示す。 As shown in FIG. 26A, camera display area 604 includes live preview 630 and zoom affordance 2622 . Zoom affordances 2622 include 0.5x zoom affordance 2622a, 1x zoom affordance 2622b, and 2x zoom affordance 2622c. In this example, 1x zoom affordance 2622b is selected, indicating that device 600 is displaying live preview 630 at the 1x zoom level.

図26Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分(例えば、メディアの表現)624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 26A, control area 606 is superimposed over live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Control area 606 includes camera mode affordance 620 , media collection portion (eg, presentation of media) 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes.

図26Aに示すように、デバイス600は、FOV内の光量が25ルクスであることを検出し、これは、光グラフ2680上の現在の光レベル2680aによって表される。FOV内の光量(25ルクス)が低光閾値(例えば、20ルクスなどの閾値)を上回るため、デバイス600は、低光環境で動作している。それにより、デバイス600は、低光モードで動作することをやめる。デバイス600は、FOV内のデータを連続的にキャプチャし、かつ標準フレームレート(例えば、デバイス600が、低光モードで動作していない間にメディアをキャプチャするために通常使用するフレームレート)に基づいてライブプレビュー630を更新する。図26Aでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650aを検出する。 As shown in FIG. 26A, device 600 detects that the amount of light within the FOV is 25 lux, represented by current light level 2680a on light graph 2680. FIG. Device 600 is operating in a low light environment because the amount of light within the FOV (25 lux) is above a low light threshold (eg, a threshold such as 20 lux). Device 600 thereby ceases to operate in low light mode. Device 600 continuously captures data within the FOV and captures data based on a standard frame rate (eg, the frame rate device 600 normally uses to capture media while not operating in low-light mode). to update the live preview 630. 26A, device 600 detects tap gesture 2650a at a location corresponding to shutter affordance 610. In FIG.

図26Bに示すように、タップジェスチャ2650aを検出したことに応じて、デバイス600は、FOVを表すメディアをキャプチャし、メディアコレクション624の一部分として、新たにキャプチャされたメディアの表現2624aを表示する。デバイス600が新たにキャプチャしたメディアをキャプチャするとき、デバイス600は、単一の画像をキャプチャし、かつメディアコレクション624の一部分として、単一の画像の表現を表示する。 As shown in FIG. 26B, in response to detecting tap gesture 2650a, device 600 captures media representing the FOV and displays representation 2624a of the newly captured media as part of media collection 624. FIG. When device 600 captures newly captured media, device 600 captures a single image and displays a representation of the single image as part of media collection 624 .

図26Bに示すように、タップジェスチャ2650aを検出した後のある時点で、デバイス600は、現在の光レベル2680bによって表されるように、FOV内の光量が15ルクスに変化したことを検出する。デバイス600が標準低光環境(例えば、20~10ルクス)で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。低光モード状態インジケータ602cは、低光モードが利用可能であるが、現在非アクティブであることを示す。低光モードは、低光モードが最初にオフ(例えば、デフォルトでオフ)であるときに利用可能であるが、低光モード状態インジケータ602cを選択することによってオンにすることができる。図26Bでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650bを検出する。 As shown in FIG. 26B, sometime after detecting tap gesture 2650a, device 600 detects that the amount of light within the FOV has changed to 15 lux, as represented by current light level 2680b. Since device 600 is operating in a standard low light environment (eg, 20-10 lux), device 600 displays low light mode status indicator 602c adjacent to flash status indicator 602a. Low light mode status indicator 602c indicates that low light mode is available but currently inactive. Low light mode is available when low light mode is initially off (eg, off by default), but can be turned on by selecting low light mode status indicator 602c. In FIG. 26B, device 600 detects tap gesture 2650b at a location corresponding to low light mode status indicator 602c.

図26Cに示すように、タップジェスチャ2650bを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示す。低光モード状態インジケータ602cが、低光モードの状態がアクティブであることを示している間に、デバイス600は、メディアをキャプチャする要求に応じて、低光モードでメディアをキャプチャするように構成される。タップジェスチャ2650bを検出したことに応じて、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804を使用して、(例えば、特定のキャプチャ持続時間に対応する調整可能な低光モードコントロール1804上の位置でのインジケーション1818を介して)低光モードでメディアをキャプチャするキャプチャ持続時間を設定することができる。具体的には、調整可能な低光モードコントロール1804は、オフ状態2604a(図26Uに示す)、デフォルト状態2604b、及び最大状態2604c(図26Kに示す)を含む、いくつかのキャプチャ持続時間状態を含む。更に、タップジェスチャ2650bを検出したことに応じて、調整可能な低光モードコントロール1804は、デフォルト状態2604bに自動的に設定され(例えば、「自動 1秒(Auto 1s)」)、これは、固定キャプチャ持続時間(例えば、1秒でのキャプチャ持続時間)に対応する。 As shown in FIG. 26C, in response to detecting tap gesture 2650b, device 600 updates low light mode status indicator 602c to indicate that low light mode is active. Device 600 is configured to capture media in low-light mode in response to a request to capture media while low-light mode status indicator 602c indicates that the low-light mode status is active. be. In response to detecting tap gesture 2650 b , device 600 displays adjustable low light mode controls 1804 in control area 606 . The adjustable low-light mode control 1804 is used to direct media in low-light mode (eg, via indication 1818 at a location on the adjustable low-light mode control 1804 corresponding to a particular capture duration). You can set the capture duration to capture. Specifically, adjustable low light mode control 1804 provides several capture duration states, including off state 2604a (shown in FIG. 26U), default state 2604b, and maximum state 2604c (shown in FIG. 26K). include. Further, in response to detecting tap gesture 2650b, adjustable low light mode control 1804 is automatically set to default state 2604b (eg, "Auto 1s"), which is fixed. Corresponds to the capture duration (eg capture duration in 1 second).

図26Cにおいて、オフ状態2604a及び最大状態2604cは、インジケーション1818の現在の位置が与えられると示されていない。オフ状態2604aは、図26Uに示すように、調整可能な低光モードコントロール1804上の最左端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、低光モードをオフにさせ、かつメディアをキャプチャする要求を受信したことに応じて(例えば、図26Uにおいて後述するように)、標準フレームレートに基づいて、メディアをキャプチャさせる。最大状態2604c(図26Kに示す)は、調整可能な低光モードコントロール1804上の最右端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、(例えば、図26J~図26Qに関連して後述するように)最大キャプチャ持続時間に基づいて、メディアをキャプチャさせる。 In FIG. 26C, the off state 2604a and maximum state 2604c are not shown given the current position of the indication 1818. FIG. The off state 2604a is the leftmost tick mark on the adjustable low light mode control 1804, as shown in Figure 26U. causing device 600 to turn off low light mode by setting adjustable low light mode control 1804 to the leftmost tick mark on adjustable low light mode control 1804 via indication 1818; And in response to receiving a request to capture media (eg, as described below in FIG. 26U), cause media to be captured based on the standard frame rate. The maximum state 2604 c (shown in FIG. 26K) is the rightmost tick mark on the adjustable low light mode control 1804 . By setting the adjustable low-light mode control 1804 to the leftmost tick mark on the adjustable low-light mode control 1804 via indication 1818, the device 600 can display (e.g., FIGS. 26J-26Q Let the media be captured based on the maximum capture duration (as described below in connection with ).

図26Cに示すように、タップジェスチャ2650bを検出したことに応じて、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間及び最大状態2604cに対応するキャプチャ持続時間を判定する。これらのキャプチャ持続時間は、メディアのキャプチャに関連付けられた特定の環境条件に基づいて計算される。環境条件は、デバイス600の安定化、FOV内で検出された光、及びFOVとともに1つ以上のオブジェクトの移動などの条件が含まれる。デバイス600は、これらの環境条件のうちの1つ以上の分析に基づいて、より高い/より低いキャプチャ(例えば、各々独立した状態)を判定する。例えば、より高いレベルの安定性、FOV内のより低いレベルの光、及びFOV内のオブジェクトのより低いレベルの動きにより、デバイス600に、1つ以上の状態(例えば、デフォルト状態2604b及び/又は最大状態2604c)に対応するより長いキャプチャ持続時間を計算させる。いくつかの実施形態では、環境条件のうちの1つ以上の変化により、デバイス600に、別のキャプチャ持続時間状態を維持しながら1つのキャプチャ持続時間状態を変化させる。換言すれば、いくつかの実施形態では、異なる環境条件は、各状態のキャプチャ持続時間に異なるように影響する。 As shown in FIG. 26C, in response to detecting tap gesture 2650b, device 600 determines a capture duration corresponding to default state 2604b and a capture duration corresponding to maximum state 2604c. These capture durations are calculated based on the specific environmental conditions associated with capturing media. Environmental conditions include conditions such as stabilization of device 600, light detected within the FOV, and movement of one or more objects with the FOV. Device 600 determines higher/lower capture (eg, each independent state) based on analysis of one or more of these environmental conditions. For example, higher levels of stability, lower levels of light within the FOV, and lower levels of motion of objects within the FOV may cause the device 600 to be placed in one or more states (eg, default state 2604b and/or maximum Let the longer capture duration corresponding to state 2604c) be calculated. In some embodiments, changes in one or more of the environmental conditions cause device 600 to change one capture duration state while maintaining another capture duration state. In other words, in some embodiments, different environmental conditions affect the capture duration of each state differently.

図26Cに示すように、デバイス600が高度に安定化されており、オブジェクト(例えば、ライブプレビュー630内に依然として立っている人)が実質的に動いておらず、かつデバイス600が標準低光環境で動作しているため、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が固定の低光キャプチャ持続時間値(1秒)であると判定する。図26Cでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650cを検出する。 As shown in FIG. 26C, device 600 is highly stabilized, an object (eg, a person still standing within live preview 630) is substantially motionless, and device 600 is in a standard low-light environment. device 600 determines that the capture duration corresponding to default state 2604b is a fixed low light capture duration value (1 second). In FIG. 26C, device 600 detects tap gesture 2650c at a location corresponding to low light mode status indicator 602c.

図26Dに示すように、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。低光モード状態インジケータが、低光モードの状態が非アクティブであることを示している間に、デバイス600は、低光モードでメディアをキャプチャするように構成されない。更に、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モードが現在非アクティブに設定されているため、調整可能な低光モードコントロール1804を表示することを停止する。いくつかの実施形態では、タップジェスチャ2650cを検出したことに応じて、デバイス600は、低光モードが利用可能であることを示すように、低光モード状態インジケータ602cを更新する(例えば、低光モードは、非アクティブであるが、インジケータ602cは、低光モードが非アクティブに設定されていることを示すインジケータを視覚的に区別可能である)。図26Dでは、タップジェスチャ2650cを検出した後に、デバイス600は、FOV内の光の変化を検出する。 As shown in FIG. 26D, in response to detecting tap gesture 2650c, device 600 updates low light mode status indicator 602c to indicate that low light mode is inactive. Device 600 is not configured to capture media in low-light mode while the low-light mode status indicator indicates that the low-light mode status is inactive. Further, in response to detecting tap gesture 2650c, device 600 stops displaying adjustable low light mode controls 1804 because low light mode is currently set to inactive. In some embodiments, in response to detecting tap gesture 2650c, device 600 updates low light mode status indicator 602c to indicate that low light mode is available (eg, low light mode status indicator 602c). mode is inactive, but indicator 602c is visually distinguishable indicator that the low light mode is set to inactive). In FIG. 26D, after detecting tap gesture 2650c, device 600 detects a change in light within the FOV.

図26Eに示すように、FOV内の光の変化を検出したことに応じて、デバイス600は、現在の光レベル2680cによって表されるように、FOV内の光量が5ルクスであることを検出する。FOV内の光量が5ルクスであることを検出した後に、デバイス600は、デバイス600が副標準低光環境(例えば、10~1ルクス)で動作していると判定する。デバイス600が副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。更に、デバイス600が副標準低光環境で動作していると判定するため、デバイス600は、低光モードがアクティブであることを示す状態を有する低光モード状態インジケータ602cを表示し、かつ低光モードをオンにする。ここで、デバイス600は、自動的に(追加のユーザ入力なしで)、デバイス600が標準低光環境内で動作したと検出したとき(例えば、図26Bで論じられたように)とは対照的に、副標準低光環境内で動作していることを検出した後に、低光モードをオンにする。特に、FOV内の光が標準低光環境内の光よりも低いため、より暗い環境(例えば、標準低光環境と比較して副標準低光環境で動作しているときに、デバイス600が低光モードを自動的にオンにする場合、メディアをキャプチャする要求を検出したことに応じて、ユーザが低光モードでより頻繁にメディアをキャプチャすることができるため、ユーザにとってより有用であり得る。それにより、デバイス600は、低光モードを手動でオンにする(例えば、低光モード状態インジケータ602cに向けられたタップジェスチャ)又は調整可能な低光モードコントロール1804を表示する必要なく、メディアをキャプチャする要求(例えば、シャッターアフォーダンス610に向けられたタップジェスチャ)を検出したことに応じて、低光モードでメディアをキャプチャするように自動的に設定される。いくつかの実施形態では、デバイス600が低光モードをオンにするとき、デバイス600は、第1のタイプのカメラ(例えば、狭い視野を有するカメラ(例えば、望遠写真カメラ))と、第1のタイプのカメラとは異なる第2のタイプのカメラ(例えば、広い視野を有するカメラ(例えば、広角又は超広角カメラ)と、を使用するのを自動的に(追加のユーザ入力なしで)切り替える(又はいくつかの実施形態では、デバイス600は、第2のタイプのカメラと、第1のタイプのカメラと、を使用するのを自動的に(追加のユーザ入力なしで)切り替える)。図26Eでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650eを検出する。 As shown in FIG. 26E, in response to detecting a change in light within the FOV, device 600 detects that the amount of light within the FOV is 5 lux, as represented by current light level 2680c. . After detecting that the amount of light within the FOV is 5 lux, device 600 determines that device 600 is operating in a substandard low light environment (eg, 10-1 lux). Since device 600 is operating in a substandard low light environment, device 600 displays low light mode status indicator 602c adjacent to flash status indicator 602a. Further, to determine that device 600 is operating in a substandard low light environment, device 600 displays low light mode status indicator 602c having a state indicating that low light mode is active, and low light mode status indicator 602c. turn on the mode. Here, the device 600 automatically (without additional user input) automatically (without additional user input), as opposed to when the device 600 detects that it is operating within a standard low-light environment (eg, as discussed in FIG. 26B). and turn on the low light mode after detecting that it is operating in a sub-standard low light environment. In particular, because the light within the FOV is lower than the light within the standard low-light environment, the device 600 may experience low light when operating in a darker environment (e.g., a sub-standard low-light environment compared to a standard low-light environment). Turning on the light mode automatically may be more useful to the user as it allows the user to capture media more frequently in the low light mode in response to detecting a request to capture media. Thereby, device 600 can capture media without having to manually turn on low light mode (e.g., tap gesture directed at low light mode status indicator 602c) or display adjustable low light mode control 1804. is automatically configured to capture media in a low-light mode in response to detecting a request to capture (e.g., a tap gesture directed at the shutter affordance 610.) In some embodiments, the device 600 When turning on the low-light mode, the device 600 uses a first type of camera (eg, a camera with a narrow field of view (eg, a telephoto camera)) and a second type of camera that is different from the first type. (e.g., a camera with a wide field of view (e.g., a wide-angle or ultra-wide-angle camera)) and automatically (without additional user input) switching (or in some embodiments, the device 600 can , the second type of camera, and the first type of camera automatically (without additional user input).In FIG. Detect a tap gesture 2650e at a position corresponding to .

図26Fに示すように、タップジェスチャ2650eを検出したことに応じて、デバイス600は、コントロール領域606内に調整可能な低光モードコントロール1804を表示する(及び低光モード状態インジケータ602cの状態及び表示を維持する)。調整可能な低光モードコントロール1804は、インジケーション1818を介して、1秒のキャプチャ持続時間に設定され、これはまた、判定されたデバイス600がデフォルト状態2604bに対応するべきキャプチャ持続時間でもある。いくつかの実施形態では、デバイス600は、代わりに、デバイス600が標準低光環境で動作したとき(例えば、図26Cで論じられたように)、デフォルト状態2604bが、最小キャプチャ持続時間(例えば、2秒)、又はデフォルト状態2604bのキャプチャ持続時間とは異なるキャプチャ持続時間を上回るキャプチャ持続時間に対応すべきであると判定する。図26Fでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650fを検出する。 As shown in FIG. 26F, in response to detecting tap gesture 2650e, device 600 displays adjustable low light mode controls 1804 within control area 606 (and the state and display of low light mode status indicator 602c). ). Adjustable low light mode control 1804 is set via indication 1818 to a capture duration of 1 second, which is also the determined capture duration for device 600 to correspond to default state 2604b. In some embodiments, the device 600 may alternatively set the default state 2604b to a minimum capture duration (e.g., 2 seconds), or a different capture duration than the default state 2604b capture duration. 26F, device 600 detects tap gesture 2650f at a location corresponding to shutter affordance 610. In FIG.

図26Gに示すように、タップジェスチャ2650fを検出したことに応じて、デバイス600は、1秒のキャプチャ持続時間(例えば、デフォルト状態2604b)に基づいてメディアをキャプチャする。デバイス600が低光モードでメディアをキャプチャするように構成されている間に、1秒のキャプチャ持続時間(又は任意の他のキャプチャ持続時間)に基づいてメディアをキャプチャするときに、デバイス600は、キャプチャ持続時間に対応する期間にわたって複数の画像をキャプチャする。画像をキャプチャした後に、デバイス600は、キャプチャされた画像を組み合わせることによって(例えば、キャプチャされた画像からのデータを組み合わせることによって)(例えば、図18A~図18Xに関連して上述したものと同様の技術を使用して)、合成画像を生成する。図26Gでは、合成画像を生成した後で、デバイス600は、新たにキャプチャされたメディアの表現2624bを表示するように、メディアコレクション624の一部分を更新する。表現2624bが図26Bに表示された表現2624aよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624bは、5ルクスでメディアの表現よりも視覚的に明るい。 As shown in FIG. 26G, in response to detecting tap gesture 2650f, device 600 captures media based on a capture duration of 1 second (eg, default state 2604b). When capturing media based on a capture duration of 1 second (or any other capture duration) while device 600 is configured to capture media in low light mode, device 600 will: Capture multiple images over a period of time corresponding to the capture duration. After capturing the images, the device 600 may combine the captured images (eg, by combining data from the captured images) (eg, similar to those described above with respect to FIGS. 18A-18X). technique) to generate a composite image. In FIG. 26G, after generating the composite image, device 600 updates a portion of media collection 624 to display representation 2624b of the newly captured media. If the device is not configured to capture media in low light mode (eg, using a standard frame rate) while representation 2624b is visually darker than representation 2624a displayed in FIG. 2624b is visually brighter than the media representation at 5 lux.

図26Bに戻ると、いくつかの実施形態では、デバイス600が図26Bでシャッターアフォーダンス610に対応する位置でのタップジェスチャを検出する場合、デバイス600は、低光モードがアクティブに設定されていなくても、複数の画像から合成画像を生成する。いくつかの実施形態では、デバイス600は、図26Bのタップジェスチャを検出したことに応じて、図26Bの表現2624bによって表された合成画像生成するために使用される画像の数よりも、少ない数の画像をキャプチャして、合成画像を生成する。換言すれば、いくつかの実施形態では、低光環境(例えば、20ルクス未満)で、デバイス600は、自動的に調整を行い、かつ複数の画像を(いくつかの実施形態では、低光モードが選択されているときよりも少ない画像を)一緒に融合して、低光状態インジケータ602cが能動的に選択されているときにデバイス600が行うように改善された合成画像を得る。図26Gでは、タップジェスチャ2650fを検出した後に、デバイス600は、FOV内の光の変化を検出する。 Returning to FIG. 26B, in some embodiments, when device 600 detects a tap gesture at a location corresponding to shutter affordance 610 in FIG. also generates a composite image from multiple images. In some embodiments, device 600, in response to detecting the tap gesture of FIG. , and generate a composite image. In other words, in some embodiments, in low light environments (eg, less than 20 lux), device 600 automatically adjusts and displays multiple images (low light mode in some embodiments). is selected) are fused together to obtain an improved composite image as device 600 does when low light condition indicator 602c is actively selected. In FIG. 26G, after detecting tap gesture 2650f, device 600 detects a change in light within the FOV.

図26Hに示すように、FOV内の光の変化を検出したことに応じて、デバイス600は、現在の光レベル2680dによって表されるように、FOV内の光量が0.5ルクスであることを検出し、それが極副標準低光環境(例えば、1ルクス未満)で動作していると判定する。デバイス600が極副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。ここで、低光モード状態インジケータは、低光モードの状態がアクティブであることを示す(デバイス600が副標準低光環境で動作していたときに上述された同様の理由による)。更には、低光モード状態インジケータ602cは、デバイス600が極副標準低光環境で動作している(及び/又はデバイス600は、閾値(例えば、1秒又は2秒を上回るなどの閾値)よりも長い持続時間で、低光環境内のメディアをキャプチャするように構成される)ため、現在のキャプチャ持続時間(例えば、低光モード状態インジケータ602cに表示された「5秒」)を更に含む。ここで、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が、FOV内の光が閾値を下回る(例えば、光レベルが標準及び副標準低光環境よりも低い)ため、最小キャプチャ持続時間よりも高いべきであることを判定する。いくつかの実施形態では、低光インジケータは、(例えば、調整可能な低光モードコントロール1804に設定される)最小キャプチャ持続時間又はいくらかの他の閾値よりも長いキャプチャ持続時間で低光モードがメディアをキャプチャするように構成されるまで、キャプチャ持続時間を含まない。図26Hでは、デバイス600は、低光モード状態インジケータ602cに対応する位置でのタップジェスチャ2650hを検出する。 As shown in FIG. 26H, in response to detecting a change in light within the FOV, device 600 determines that the amount of light within the FOV is 0.5 lux, as represented by current light level 2680d. detect and determine that it is operating in a very substandard low light environment (eg, less than 1 lux). Since the device 600 is operating in a very substandard low light environment, the device 600 displays a low light mode status indicator 602c adjacent to the flash status indicator 602a. Here, the low light mode status indicator indicates that the low light mode status is active (for similar reasons discussed above when device 600 was operating in a sub-standard low light environment). Additionally, low light mode status indicator 602c indicates that device 600 is operating in a very sub-standard low light environment (and/or device 600 is operating below a threshold (eg, above a threshold of 1 or 2 seconds, etc.). configured to capture media in low light environments for a long duration), it also includes the current capture duration (eg, "5 seconds" displayed in low light mode status indicator 602c). Here, the device 600 will set the capture duration corresponding to the default state 2604b to less than the minimum capture duration because the light in the FOV is below the threshold (e.g., the light level is lower than standard and sub-standard low light environments). should also be high. In some embodiments, the low-light indicator indicates that the low-light mode is in media at a capture duration longer than the minimum capture duration (eg, set in the adjustable low-light mode control 1804) or some other threshold. does not include the capture duration until configured to capture the . In FIG. 26H, device 600 detects tap gesture 2650h at a location corresponding to low light mode status indicator 602c.

図26Iに示すように、タップジェスチャ2650hを検出したことに応じて、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。ここで、調整可能な低光モードコントロール1804は、5秒のキャプチャ持続時間に設定され、これはまた、デフォルト状態2604bに対応する。上述のように、デバイス600は、キャプチャ持続時間が最小キャプチャ持続時間(例えば、1秒)の代わりに5秒であるべきであると判定する。デバイス600は、FOV内の光が、最小キャプチャ持続時間がメディアの特定の品質に十分に有効ではない(例えば、1つ以上のオブジェクトがキャプチャされたメディア内で区別可能である)光レベルに変化したため、この判定を行う。ここで、キャプチャ持続時間は変化するが、他の環境条件(例えば、デバイス600の安定化及びFOV内のオブジェクトの動き)は、同じままである。図26Iでは、デバイス600は、調整可能な低光モードコントロール1804に対応する位置での左向きスワイプジェスチャ2650iを検出する。 In response to detecting tap gesture 2650h, device 600 displays adjustable low light mode controls 1804 in control area 606, as shown in FIG. 26I. Here the adjustable low light mode control 1804 is set to a capture duration of 5 seconds, which also corresponds to the default state 2604b. As described above, device 600 determines that the capture duration should be 5 seconds instead of the minimum capture duration (eg, 1 second). Device 600 changes the light within the FOV to a light level where the minimum capture duration is not sufficiently effective for a particular quality of media (e.g., one or more objects are distinguishable within the captured media). Therefore, this decision is made. Here, the capture duration changes, but other environmental conditions (eg, stabilization of device 600 and movement of objects within the FOV) remain the same. In FIG. 26I, device 600 detects a left swipe gesture 2650i at a location corresponding to adjustable low light mode control 1804. In FIG.

図26Jに示すように、左向きスワイプジェスチャ2650iを検出したことに応じて、デバイス600は、左向きスワイプジェスチャ2650iの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを左にシフトする。調整可能な低光モードコントロール1804のティックマークを左にシフトした後、デバイス600は、10秒のキャプチャ持続時間に対応する位置に、インジケーション1818を表示する。ここで、10秒のキャプチャ持続時間は、最大状態2604c(又は調整可能な低光モードコントロール1804上の最右端のティックマーク)についてのキャプチャ持続時間に対応する。そうすると、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間を表示することを停止する。図26Jに示すように、左向きスワイプジェスチャ2650iに応じて、デバイス600は、閾値(例えば、1秒又は2秒などの閾値)よりも高いキャプチャ持続時間(例えば、10秒)に基づいて、デバイス600が低光モードでメディアをキャプチャするように構成されるため、現在のキャプチャ持続時間が10秒であることを示すように、低光キャプチャインジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804は、オフ状態2604a、デフォルト状態2604b、及び最大状態2604cに対応するキャプチャ持続時間のみを設定し得る。いくつかの実施形態では、調整可能な低光モードコントロール1804は、キャプチャ持続時間状態(例えば、オフ状態2604a、デフォルト状態2604b、及び最大状態2604c)のうちの1つ以上に対応しない他のキャプチャ持続時間を設定し得る。 As shown in FIG. 26J, in response to detecting the left swipe gesture 2650i, the device 600 ticks the adjustable low light mode control 1804 to the left based on the magnitude and direction of the left swipe gesture 2650i. shift. After shifting the tick mark of adjustable low light mode control 1804 to the left, device 600 displays indication 1818 at a position corresponding to a capture duration of 10 seconds. Here, a capture duration of 10 seconds corresponds to the capture duration for maximum state 2604c (or rightmost tick mark on adjustable low light mode control 1804). Device 600 then stops displaying the capture duration corresponding to default state 2604b. As shown in FIG. 26J, in response to the left swipe gesture 2650i, the device 600 may cause the device 600 to generate a is configured to capture media in low light mode, it updates the low light capture indicator 602c to indicate that the current capture duration is 10 seconds. In some embodiments, adjustable low light mode control 1804 may only set capture durations corresponding to off state 2604a, default state 2604b, and maximum state 2604c. In some embodiments, the adjustable low light mode control 1804 controls other capture durations that do not correspond to one or more of the capture duration states (eg, off state 2604a, default state 2604b, and maximum state 2604c). You can set the time.

図26J~図26Qは、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャするデバイス600を示す。具体的には、図26J~図26Qは、デバイス600が、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャする間に使用する、1つ以上のアニメーション及び/又は技術を示す。キャプチャ持続時間(例えば、10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベルが1ルクスを下回る場合、デバイス600は、以下のアニメーションを表示し、かつ低光モードでメディアをキャプチャする以下の技術を使用する。キャプチャ持続時間(例えば、1秒)が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも高く設定されておらず、及び/又は検出された光のレベルが1ルクスを下回らない場合、デバイス600は、以下のアニメーションを表示すること、及び低光モードでメディアをキャプチャする以下の技術を使用することをやめる。例えば、図26F~図26Gに戻ると、1秒のキャプチャ持続時間が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも長く設定されなかったため、デバイス600がメディアをキャプチャしたときに、以下のアニメーション又は技術のいずれも記載されなかった。いくつかの代替的実施形態では、キャプチャ持続時間が閾値を下回り、及び/又は検出された光のレベルが1ルクスを下回らない場合、アニメーション及び/又は技術のいくつかを使用する。更に、いくつかの実施形態では、図18J~図18Tに記載された1つ以上のアニメーション又は技術は、図26J~図26Qに関連して後述されたアニメーション及び技術に含まれ、簡潔にするために、これらのアニメーション及び技術のうちのいくつかは、以下の考察から省略されている。図26Jでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2650jを検出する。 Figures 26J-26Q illustrate device 600 capturing media in low light mode based on capture duration. Specifically, FIGS. 26J-26Q illustrate one or more animations and/or techniques that device 600 uses while capturing media in low light mode based on the capture duration. The capture duration (e.g., 10 seconds) is set higher than the threshold capture duration (e.g., a threshold such as 1 second or a threshold such as 2 seconds) and/or the detected light level exceeds 1 lux If so, device 600 displays the following animation and uses the following technique to capture media in low light mode. The capture duration (e.g., 1 second) is not set higher than a threshold capture duration (e.g., a threshold such as 1 second or 2 seconds) and/or the detected light level is not below 1 lux If so, the device 600 ceases to display the following animations and use the following techniques to capture media in low light mode. For example, returning to FIGS. 26F-26G, when device 600 captures media because the capture duration of 1 second was not set longer than the threshold capture duration (eg, a threshold such as 1 second or 2 seconds), did not describe any of the following animations or techniques. Some alternative embodiments use some of the animations and/or techniques if the capture duration is below a threshold and/or the detected light level is not below 1 lux. Further, in some embodiments, one or more of the animations or techniques described in FIGS. 18J-18T are included in the animations and techniques described below in connection with FIGS. 26J-26Q, and are omitted for brevity. Additionally, some of these animations and techniques have been omitted from the discussion below. 26J, device 600 detects tap gesture 2650j at a location corresponding to shutter affordance 610. In FIG.

図26Kに示すように、タップジェスチャ2650jを検出したことに応じて、デバイス600は、10秒のキャプチャ持続時間(例えば、左向きスワイプジェスチャ2650iに応じて、設定された最大状態2604cに対応するキャプチャ持続時間)に基づいて、低光モードでのメディアのキャプチャを開始した。メディアのキャプチャを開始すると、デバイス600は、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動を開始する(例えば、10秒から0秒へのカウントダウン)。更に、デバイス600は、インジケータ領域602内のフラッシュ状態インジケータ602a及び低光モード状態インジケータ602c、カメラディスプレイ領域604内のズームアフォーダンス2622、並びにコントロール領域606内のメディアコレクション624などの、デバイス600が低光モードでメディアをキャプチャしている間に対話することができる、ユーザインタフェース要素のうちのいくつかを表示することを停止する。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応じて、デバイス600は、インジケーションを、10秒のキャプチャ持続時間から0秒のキャプチャ持続時間まで(例えば、巻き出しアニメーション18M~18Qと同様)動かす前に、インジケーション1818を、0秒のキャプチャ持続時間から10秒のキャプチャ持続時間まで(例えば、巻き取りアニメーション18K~18Mと同様)動かすアニメーションを示す。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応じて、デバイス600は、シャッターアフォーダンス610を暗くし;いくつかの実施形態では、デバイス600は、シャッターアフォーダンス610を暗くした後、停止アフォーダンス1806を表示しない。 As shown in FIG. 26K, in response to detecting tap gesture 2650j, device 600 may set a capture duration of 10 seconds (e.g., capture duration corresponding to set maximum state 2604c in response to left swipe gesture 2650i). time) and started capturing media in low light mode. When media capture begins, device 600 replaces display of shutter affordance 610 with stop affordance 1806 and begins moving indication 1818 toward a capture duration of zero (eg, counting down from 10 seconds to 0 seconds). ). Additionally, device 600 provides low light indicators such as flash status indicator 602a and low light mode status indicator 602c in indicator area 602, zoom affordance 2622 in camera display area 604, and media collection 624 in control area 606. Stop displaying some of the user interface elements that you can interact with while capturing media in the mode. In some embodiments, in response to detecting tap gesture 2650j, device 600 changes the indication from a capture duration of 10 seconds to a capture duration of 0 seconds (eg, unwind animations 18M-18Q). Similarly) before moving, shows an animation that moves the indication 1818 from a capture duration of 0 seconds to a capture duration of 10 seconds (eg, similar to the winding animation 18K-18M). In some embodiments, in response to detecting tap gesture 2650j, device 600 dims shutter affordance 610; Do not display 1806.

図26Kに示すように、タップジェスチャ2650jを検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズ(例えば、位置及び/又は向き)と、メディアをキャプチャしている間の時点のポーズとの間の差を示す、視覚ガイダンス2670を表示する。キャプチャ持続時間(10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベル(0.5ルクス)が1ルクスを下回るため、視覚ガイダンスが表示される。視覚ガイダンス2670は、命令2670a(例えば、「一時停止」)を含み、これは、デバイス600が、低光モードでメディアをキャプチャしている間、安定している(例えば、静止する)必要があることを示す。更には、視覚ガイダンス2670はまた、元のポーズインジケーション2670bを含み、これは、メディアのキャプチャを開始したときのデバイス600のポーズを示す。画像をキャプチャしている間にデバイス600が安定化されていない、又は画像が元のポーズから外れてキャプチャされる場合、デバイス600は、デバイス600がその元のポーズで安定化されるか又はそのままであるときよりも品質が劣ったメディアを生成する。理解を向上させるために、図26K~図26Qのいくつかは、現在のポーズ2668cの位置がデバイス600の元のポーズ2668bの位置に対してどのように変化するかに関する詳細を提供するグラフ的な説明図2668を含む。 As shown in FIG. 26K, in response to detecting tap gesture 2650j, device 600 determines the pose (e.g., position and/or orientation) of device 600 when media capture was initiated and the device 600 captured media. Visual guidance 2670 is displayed, showing the difference between the pose at the time point while The capture duration (10 seconds) is set higher than the threshold capture duration (e.g. threshold such as 1 second or threshold such as 2 seconds) and/or detected light level (0.5 lux) is below 1 lux, visual guidance is displayed. Visual guidance 2670 includes instruction 2670a (eg, "pause"), which requires device 600 to remain steady (eg, stand still) while capturing media in low-light mode. indicates that Additionally, visual guidance 2670 also includes original pose indication 2670b, which indicates the pose of device 600 when media capture began. If device 600 is not stabilized while capturing an image, or if an image is captured out of its original pose, device 600 will either stabilize in its original pose or remain as it is. produces media of inferior quality than when . To improve understanding, some of FIGS. 26K-26Q are graphical illustrations that provide details on how the position of the current pose 2668c changes relative to the position of the original pose 2668b of the device 600. Includes illustration 2668.

図26Lに示すように、デバイス600は、10秒のキャプチャ持続時間から8秒のキャプチャ持続時間にインジケーション1818を動かした。8秒のキャプチャ持続時間では、デバイス600は、多数の画像をキャプチャした。8秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668c(例えば、固体電話として示される)は、その元のポーズ2668b(例えば、点線で示される)から上及び右にシフトされる。デバイス600のポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション2670bの表示を維持し、かつ現在のポーズインジケーション2670cを表示する。現在のポーズインジケーション2670cは、現在のポーズ2668cに対応するカメラユーザインタフェース上の位置に表示される(例えば、元のポーズインジケーション2670bから上及び右にシフトされる)。図26Lに示すように、デバイス600は、2つの別個のライン(例えば、ボックス)のセットとして、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cを表示する。いくつかの実施形態では、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cは、異なる色、太さ、勾配、ボケ、又は他のタイプの視覚効果などの1つ以上の異なる視覚特性を有することによって視覚的に区別される。 As shown in FIG. 26L, device 600 has moved indication 1818 from a 10 second capture duration to an 8 second capture duration. With a capture duration of 8 seconds, device 600 captured multiple images. At some point while displaying indication 1818 with a capture duration of 8 seconds, device 600 detects a change in its pose. As shown in graphical illustration 2668, device 600's current pose 2668c (eg, shown as a solid-state phone) is shifted up and to the right from its original pose 2668b (eg, shown in dashed lines). . In response to detecting a change in pose of device 600, device 600 maintains display of original pose indication 2670b and displays current pose indication 2670c. Current pose indication 2670c is displayed at a position on the camera user interface that corresponds to current pose 2668c (eg, shifted up and to the right from original pose indication 2670b). As shown in FIG. 26L, device 600 displays original pose indication 2670b and current pose indication 2670c as a set of two separate lines (eg, boxes). In some embodiments, original pose indication 2670b and current pose indication 2670c have one or more different visual characteristics, such as different colors, thicknesses, gradients, blurring, or other types of visual effects. visually distinguished by

図26Mに示すように、デバイス600は、8秒のキャプチャ持続時間から7秒のキャプチャ持続時間にインジケーション1818を動かした。7秒のキャプチャ持続時間では、デバイス600は、8秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。7秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bから左下にシフトされている。ここで、現在のポーズ2668cへの過補正が適用されている(例えば、デバイス600は、図26Nの現在のポーズ2668cから左下に過補正された)。図26Mに示すように、(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、ライブプレビュー630上で、図26Mにおける現在のポーズ2668cに対応する位置まで、現在のポーズインジケーション2670cを動かす。(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、図26Lに表示された位置に、元のポーズインジケーション2670bの表示を維持し、これにより、デバイス600は、現在のポーズインジケーション2670cが、元のポーズインジケーション2670bから下及び左にシフトされたことを表示する。いくつかの実施形態では、現在のポーズインジケーション2670cを新しい位置に動かす代わりに、デバイス600は、元のポーズインジケーション2670bを新しい位置に動かし、現在のポーズインジケーション2670cの表示を、図26Lにおいて以前に表示された位置に維持する。 As shown in FIG. 26M, device 600 has moved indication 1818 from a capture duration of 8 seconds to a capture duration of 7 seconds. With a capture duration of 7 seconds, device 600 captured more images than device 600 captured with a capture duration of 8 seconds. At some point while displaying indication 1818 with a capture duration of 7 seconds, device 600 detects a change in its pose. As shown in graphical illustration 2668, the current pose 2668c of device 600 has been shifted to the lower left from its original pose 2668b. Here, an overcompensation to current pose 2668c has been applied (eg, device 600 was overcompensated to the left and down from current pose 2668c in FIG. 26N). As shown in FIG. 26M, in response to detecting a change in pose of device 600 (with a capture duration of 7 seconds), device 600 displays on live preview 630 corresponding to current pose 2668c in FIG. 26M. Move current pose indication 2670c to position. In response to detecting a change in pose of device 600 (with a capture duration of 7 seconds), device 600 maintains display of original pose indication 2670b at the position displayed in FIG. , the device 600 displays that the current pose indication 2670c has been shifted down and left from the original pose indication 2670b. In some embodiments, instead of moving the current pose indication 2670c to a new position, the device 600 moves the original pose indication 2670b to the new position and displays the current pose indication 2670c as shown in FIG. 26L. Remain in the previously displayed position.

図26Nに示すように、デバイス600は、7秒のキャプチャ持続時間から5秒のキャプチャ持続時間にインジケーション1818を動かした。5秒のキャプチャ持続時間では、デバイス600は、7秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bの位置になるように近くにシフトされ、図26Mにおける現在のポーズ2668cの位置から右上にシフトされる。(5秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応じて、デバイス600は、ライブプレビュー630上で、現在のポーズインジケーション2670cを、図26Nの現在のポーズ2668cに対応する位置に動かし、これにより、デバイス600は、図26Mに表示された現在のポーズインジケーション2670cよりも、元のポーズインジケーション2670bの近くにシフトされた現在のポーズインジケーション2670cを表示する。更には、デバイス600は、その元の位置に元のポーズインジケーション2670bの表示を維持する。 As shown in FIG. 26N, device 600 has moved indication 1818 from a capture duration of 7 seconds to a capture duration of 5 seconds. With a capture duration of 5 seconds, device 600 captured more images than device 600 captured with a capture duration of 7 seconds. At some point while displaying indication 1818 with a capture duration of 5 seconds, device 600 detects a change in its pose. As shown in graphical illustration 2668, the current pose 2668c of device 600 is shifted closer to the original pose 2668b position and shifted to the upper right from the current pose 2668c position in FIG. 26M. . In response to detecting a change in pose of device 600 (with a capture duration of 5 seconds), device 600 maps current pose indication 2670c on live preview 630 to current pose 2668c of FIG. 26N. 26M, causing the device 600 to display the current pose indication 2670c shifted closer to the original pose indication 2670b than the current pose indication 2670c displayed in FIG. 26M. Additionally, device 600 maintains display of original pose indication 2670b in its original position.

図26Oに示すように、デバイス600は、5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。4秒のキャプチャ持続時間では、デバイス600は、5秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出し、現在のポーズ2668cの位置は、元のポーズ2668bの位置と一致する。図26Nに示すように、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応じて、デバイス600は、触知出力2620aを発する。更には、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応じて、デバイス600は、現在のポーズインジケーション2670cを表示することを停止し、命令2670a及び元のポーズインジケーション2670bの表示を維持する。いくつかの実施形態では、元のポーズインジケーション2670bは、現在のポーズが元のポーズと一致する場合、現在のポーズが元のポーズと一致しない場合とは異なる色を表示する。 As shown in FIG. 26O, device 600 has moved indication 1818 from a capture duration of 5 seconds to a capture duration of 4 seconds. With a capture duration of 4 seconds, device 600 captured more images than the device captured with a capture duration of 5 seconds. At some point while displaying indication 1818 with a capture duration of 4 seconds, device 600 detects a change in its pose and the position of current pose 2668c matches the position of original pose 2668b. . As shown in FIG. 26N, in response to detecting that current pose 2668c matches the position of original pose 2668b, device 600 emits tactile output 2620a. Further, in response to detecting that the current pose 2668c matches the position of the original pose 2668b, the device 600 stops displaying the current pose indication 2670c and instructs 2670a and the original pose Maintain the display of indication 2670b. In some embodiments, the original pose indication 2670b displays a different color when the current pose matches the original pose than when the current pose does not match the original pose.

図26Pに示すように、デバイス600は、4秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間では、デバイス600は、4秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。3秒のキャプチャ持続時間では、デバイス600は、そのポーズの変化を検出せず、命令2670aの表示を維持する。それにより、デバイス600は、視覚ガイダンス2670の表示を更新することをやめる。 As shown in FIG. 26P, device 600 has moved indication 1818 from a capture duration of 4 seconds to a capture duration of 3 seconds. With a capture duration of 3 seconds, device 600 captured more images than the device captured with a capture duration of 4 seconds. At a capture duration of 3 seconds, device 600 detects no change in its pose and continues to display instructions 2670a. Device 600 thereby stops updating the display of visual guidance 2670 .

図26Qに示すように、デバイス600は、2秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かした。0秒のキャプチャ持続時間では、デバイス600は、3秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。0秒のキャプチャ持続時間では、デバイス600は、メディアキャプチャの終了を検出する。 As shown in FIG. 26Q, device 600 has moved indication 1818 from a capture duration of 2 seconds to a capture duration of 0 seconds. With a capture duration of 0 seconds, device 600 captured more images than the device captured with a capture duration of 3 seconds. At a capture duration of 0 seconds, device 600 detects the end of media capture.

図26Rに示すように、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、最大状態2604cに対応する10秒のキャプチャ持続時間で、調整可能な低光モードコントロール1804上にインジケーション1818を表示し、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。更には、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、デバイス600が低光モードでメディアをキャプチャしていた間に対話し得る、ユーザインタフェース要素のうちのいくつかを再表示する。図26Rに示すように、メディアのキャプチャの終了を検出したことに応じて、デバイス600は、タップジェスチャ2650jを検出したことに応じて、キャプチャされた複数の画像に基づいて合成画像のメディアを生成する。デバイス600は、メディアコレクション624の一部分として、表現2624cを表示する。表現2624cが図26G(及び表現2624a)に表示された表現2624bよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624cは、0.5ルクスでメディアの表現よりも視覚的に明るい。図26Rでは、より長いキャプチャ持続時間に起因して、デバイス600は、デバイス600が図26Gの表現2624bによって表された合成画像を生成するためにキャプチャした画像の数より多くの画像をキャプチャして、表現2624cによって表された合成画像を生成した。いくつかの実施形態では、より少ない周辺光を有する環境においてメディアをキャプチャするとき、デバイス600は、より高レベルの周辺光を有する環境においてデバイス600が生成する画像と同じ画像を生成するために、より多くの画像をキャプチャし、融合させる必要がある。図26Rでは、デバイス600は、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出する。 As shown in FIG. 26R, in response to detecting the end of media capture, device 600 causes an indication on adjustable low light mode control 1804 with a capture duration of 10 seconds corresponding to maximum state 2604c. 1818 is displayed and the display of stop affordance 1806 is replaced with shutter affordance 610 . Further, in response to detecting the end of media capture, device 600 redisplays some of the user interface elements with which device 600 may have interacted while capturing media in low light mode. do. As shown in FIG. 26R, in response to detecting the end of media capture, device 600 generates composite image media based on multiple captured images in response to detecting tap gesture 2650j. do. Device 600 displays representation 2624 c as part of media collection 624 . While representation 2624c is visually darker than representation 2624b displayed in FIG. 26G (and representation 2624a), the device is configured to capture media in low light mode (eg, using standard frame rates). Otherwise, the representation 2624c is visually brighter than the media representation at 0.5 lux. In FIG. 26R, due to the longer capture duration, device 600 is capturing more images than device 600 captured to generate the composite image represented by representation 2624b of FIG. 26G. , generated a composite image represented by representation 2624c. In some embodiments, when capturing media in an environment with less ambient light, device 600 may: More images need to be captured and fused. In FIG. 26R, device 600 detects a change in movement of device 600 such that the electronic device becomes less stable.

図26Sに示すように、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600は、10秒のキャプチャ持続時間から5秒のキャプチャ持続時間に最大状態2604cを更新する。上述のように、デバイス600がより不安定であるとき、デバイス600は、最大状態2604c(例えば、又はデフォルト状態2604b)に対応するキャプチャ持続時間をより短くし得る。更には、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600はまた、5秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。いくつかの実施形態では、デバイス600が、キャプチャ持続時間が閾値(例えば、1秒又は2秒などの閾値)未満であると判定すると、デバイス600は、低光モード状態インジケータ602c内のキャプチャ持続時間を表示することを停止する。 As shown in FIG. 26S, in response to detecting a change in movement of device 600 such that the electronic device is less stable, device 600 changes from a 10 second capture duration to a 5 second capture duration. Update max state 2604c. As described above, when device 600 is more unstable, device 600 may shorten the capture duration corresponding to maximum state 2604c (eg, or default state 2604b). Further, in response to detecting a change in movement of device 600 such that the electronic device is more unstable, device 600 also displays low light mode status indicator 602c to indicate a capture duration of 5 seconds. (eg, because adjustable low light mode control 1804 is currently set to maximum state 2604c via indication 1818). In some embodiments, when device 600 determines that the capture duration is less than a threshold (eg, a threshold such as 1 second or 2 seconds), device 600 displays the capture duration in low light mode status indicator 602c. to stop displaying .

特に、いくつかの実施形態では、デバイス600は、以前に設定されたキャプチャ持続時間に基づいてメディアをキャプチャしている間に、1つ以上の環境条件の変化を検出することができる。いくつかの実施形態では、この変化に基づいて、デバイス600は、最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ持続時間値を更新することができる。デバイス600が最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ値を更新すると、デバイス600は、メディアのキャプチャの終了を検出したことに応じて、新しいキャプチャ持続時間でインジケーション1818を表示することができる(例えば、デバイス600は、図26Qでカメラユーザインタフェースを表示し、続いて、26Sでカメラユーザインタフェースを表示することができる)。図26Sでは、デバイス600は、電子デバイスがより安定であるように、デバイス600の移動の変化を検出する。 In particular, in some embodiments, device 600 can detect changes in one or more environmental conditions while capturing media based on a previously set capture duration. In some embodiments, based on this change, device 600 can update the capture duration value corresponding to maximum state 2604c (or default state 2604b). When device 600 updates the capture value corresponding to maximum state 2604c (or default state 2604b), device 600 may display indication 1818 with the new capture duration in response to detecting the end of media capture. (eg, device 600 may display the camera user interface at FIG. 26Q, followed by the camera user interface at 26S). In FIG. 26S, the device 600 detects changes in movement of the device 600 such that the electronic device is more stable.

図26Tに示すように、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600は、5秒のキャプチャ持続時間から10秒のキャプチャ持続時間に戻るように最大状態2604cを更新する。更には、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応じて、デバイス600はまた、10秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。図26Tでは、デバイス600は、調整可能な低光モードコントロール1804に対応する位置での右向きスワイプジェスチャ2650tを検出する。 As shown in FIG. 26T, in response to detecting a change in movement of device 600, device 600 reverts from a 5 second capture duration to a 10 second capture duration so that the electronic device is more stable. Update the maximum state 2604c as follows. Further, in response to detecting a change in movement of device 600, device 600 also turns low light mode status indicator 602c to indicate a capture duration of 10 seconds so that the electronic device is more stable. Update (eg, because adjustable low light mode control 1804 is currently set to maximum state 2604c via indication 1818). 26T, device 600 detects right swipe gesture 2650t at a location corresponding to adjustable low light mode control 1804. In FIG.

図26Uに示すように、右向きスワイプジェスチャ2650tを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ2650tの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを右にシフトする。調整可能な低光モードコントロール1804のティックマークを右にシフトした後、デバイス600は、調整可能な低光モードコントロール1804上のオフ状態2604aのキャプチャ持続時間に対応する位置に、インジケーション1818を表示する。調整可能な低光モードコントロール1804がオフ状態2604aに設定されていることを検出したことに応じて、デバイス600は、低光モードでの動作を停止する。換言すれば、低光モードは、オフにされるか、又は非アクティブに設定される。低光モードでの動作を停止することに加えて、デバイス600は、低光キャプチャモードの状態が非アクティブであることを示すように、低光モード状態インジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804がオフ状態に設定されていることを検出したことに応じて、デバイス600は、低光モード状態インジケータ602cであることをやめる。いくつかの実施形態では、図26Uでは、メディアをキャプチャする要求を受信したことに応じて、デバイス600は、メディアの画像を1つだけキャプチャする標準フレームレートに基づいて、メディアをキャプチャする。 As shown in FIG. 26U, in response to detecting right swipe gesture 2650t, device 600 ticks adjustable low light mode control 1804 to the right based on the magnitude and direction of right swipe gesture 2650t. shift. After shifting the tick mark of adjustable low light mode control 1804 to the right, device 600 displays indication 1818 on adjustable low light mode control 1804 at a position corresponding to the capture duration of off state 2604a. do. In response to detecting that adjustable low light mode control 1804 is set to off state 2604a, device 600 ceases operating in low light mode. In other words, the low light mode is turned off or set inactive. In addition to ceasing operation in low-light mode, device 600 updates low-light mode status indicator 602c to indicate that the status of low-light capture mode is inactive. In some embodiments, device 600 ceases to be low light mode status indicator 602c in response to detecting that adjustable low light mode control 1804 is set to the off state. In some embodiments, in FIG. 26U, in response to receiving a request to capture media, device 600 captures media based on a standard frame rate that captures only one image of the media.

図27A~図27Cは、いくつかの実施形態による、電子デバイスを使用してメディアを管理するための方法を示すフロー図である。方法2700は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 27A-27C are flow diagrams illustrating methods for managing media using an electronic device, according to some embodiments. Method 2700 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 2700 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2700は、メディアを管理するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2700 provides an intuitive way to manage media. This method reduces the user's cognitive burden in editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to manage media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2704)を含むメディアキャプチャユーザインタフェースを表示する(2702)。 The electronic device (e.g., 600) includes a display device (e.g., touch-sensitive display) and one or more cameras (e.g., one or more cameras on the same or different sides of the electronic device (e.g., front camera, rear camera)). (e.g. dual camera, triple camera, quad camera, etc.). The electronic device may, via a display device, view one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens). Display 2702 a media capture user interface including displaying 2704 a representation of the field of view (eg, representation over time, live preview feed of data from camera).

低光カメラモードがアクティブである間に(例えば、602cによって示すように)、電子デバイスは、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ又はタイマー)を表示する(2706)。いくつかの実施形態では、低光カメラモード(例えば、低光キャプチャモード)は、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺(例えば、2680a~d)光がそれぞれの閾値を下回るとき、デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。 While the low-light camera mode is active (eg, as indicated by 602c), the electronic device displays controls (eg, 1804) (eg, a slider or timer) that adjust the capture duration for capturing media. (2706). In some embodiments, a low light camera mode (eg, low light capture mode) is active when low light conditions are met. In some embodiments, a low light condition indicates that the device is operating in low light mode when ambient (eg, 2680a-d) light within the field of view of one or more cameras is below respective thresholds. When the user selects (e.g., turns on) the low-light condition indicator that indicates the conditions that are met when the user turns on or activates the setting that activates the low-light camera mode, the low-light condition is Satisfied when containing.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)との判定に従って(2708)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間(例えば、図26Fの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Fの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2712)。所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応じて、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying controls, a set of first capture duration criteria (e.g., a set of criteria met based on camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) ) is satisfied (eg, 2680c), the electronic device determines 2708 that the control (eg, 1804) is the first capture duration (eg, 2604b in FIG. 26F) (eg, a time (eg, , total capture time, exposure time), measured in number of pictures/frames) (e.g., 1818 in FIG. 26F) (e.g., a slider bar on a particular tick mark of the slider, on the display device ) is displayed (2712). By displaying an indication that an adjustable control is set to a particular capture duration only when predetermined conditions are met, the user can On demand, the device can quickly recognize the capture duration to use the capture media. Also, by displaying an indication that the adjustable control is set to a particular capture duration only when the predetermined condition is met, the user is actuated with respect to the predetermined condition. Alleviate the need to calculate a specific capture duration. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)との判定に従って(2708)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f)に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2714)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件のときにメディアをキャプチャする要求に応じて、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying controls (eg, 1804), a set of first capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion) may be met based on Upon determining (2708) that a set of criteria (set of criteria to be specified) are satisfied (eg, 2680c), the electronic device makes a single request (eg, a gesture 2650f), configure 2714 the electronic device (e.g., 600) to capture a first plurality of images for a first capture duration (e.g., adjust settings to When one or more cameras are activated (e.g., by initiating media capture (e.g., by tapping on a shutter affordance (e.g., a selectable user interface object))), the electronic device indicates the capture duration (Capture multiple images at a first rate for at least a portion of .) Automatically configuring the electronic device to capture multiple images may be performed on demand to capture media under predetermined conditions. , reducing the number of inputs the user has to manually configure the device to capture a large number of images, optimized if a set of conditions are met without requiring further user input Performing actions improves the usability of the device (e.g. by assisting the user in providing appropriate input when operating/interacting with the device and reducing user error). ) Reduce power usage and improve device battery life by making the user-device interface more efficient, as well as allowing the user to use the device more quickly and efficiently.

コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)との判定に従って(2710)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間(例えば、図26Iの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Iの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2716)。別の1組の所定の試行とは異なる所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応じて、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the controls, a set of second capture duration criteria (e.g., camera stabilization, environmental conditions, light levels, camera motion, and/or a set of criteria met based on scene motion) are met (eg, 2680d), the electronic device determines 2710 that the control (eg, 1804) is enabled for the first capture duration. is set to a second capture duration (e.g., 2604b in FIG. 26I) (e.g., time (e.g., total capture time, exposure time), measured in number of pictures/frames) that is longer than (e.g., , FIG. 26I 1818) (eg, the slider bar on the particular tick mark of the slider, the text displayed on the display device) is displayed (2716). By displaying an indication that the adjustable control is set to a particular capture duration only when a predetermined condition different from another set of predetermined trials is met, the user can: On demand, the device can quickly recognize the capture duration to use the capture media without having to manually configure the capture duration. Also, by displaying an indication that the adjustable control is set to a particular capture duration only when the predetermined condition is met, the user is actuated with respect to the predetermined condition. Alleviate the need to calculate a specific capture duration. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)との判定に従って(2710)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650j)に応じて、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2718)(第1のキャプチャ持続時間の外側である第2のキャプチャ持続時間の一部分の間に少なくとも1つの画像をキャプチャすることを含む)(例えば、設定を調整して、それにより、電子デバイスの1つ以上のカメラが、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分にわたって第1の速度で複数の画像をキャプチャさせる)。いくつかの実施形態では、第2の複数の画像は、第1の複数の画像とは異なる。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が満たされるときにメディアをキャプチャする要求に応じて、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying controls (e.g., 1804), a set of second capture duration criteria (e.g., camera stabilization, environmental conditions, light Upon determining 2710 that a set of criteria met based on level, camera motion, and/or scene motion) is met (e.g., 2680d), the electronic device moves into the field of view of one or more cameras. Configuring 2718 the electronic device (eg, 600) to capture a second plurality of images for a second capture duration in response to a single request (eg, gesture 2650j) to capture a corresponding image. ) (including capturing at least one image during a portion of a second capture duration that is outside the first capture duration) (e.g., adjusting settings such that one of the electronic devices When one or more cameras are activated (e.g., by initiating media capture (e.g., tapping on a shutter affordance)), the electronic device displays multiple images at a first rate for at least a portion of the capture duration. captured). In some embodiments, the second plurality of images is different than the first plurality of images. In some embodiments, a first plurality of images is produced (e.g., combined) into a first composite image, or a second plurality of images is produced into a second composite image. (e.g. combined). Automatically configuring an electronic device to capture multiple images means that a user manually configures the device to capture multiple images in response to a request to capture media when predetermined conditions are met. Reduce the number of inputs that need to be configured. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信する。いくつかの実施形態では、デバイスがシャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ)を受信すると、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求は、受信される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、電子デバイスは、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする(例えば、図26F~図26G)。いくつかの実施形態では、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャする(例えば、図26J~図26R)。いくつかの実施形態では、第1の複数の画像(又は第2の複数の画像)は、複数の画像のコンテンツの分析に基づいて組み合わされる。 In some embodiments, the electronic device receives a single request (eg, gesture 2650f or 2650j) to capture images corresponding to the fields of view of one or more cameras. In some embodiments, when the device receives a gesture (e.g., tap) directed at the shutter affordance (e.g., 610), a single request to capture images corresponding to one or more camera fields of view is received. In some embodiments, in response to receiving a single request (eg, gesture 2650f or 2650j) to capture images corresponding to one or more camera fields of view, the electronic device performs a first capture duration Capturing a first plurality of images for a first capture duration in accordance with determining that the electronic device is configured to capture a first plurality of images over time (eg, FIGS. 26F-26G) . In some embodiments, following determining that the electronic device is configured to capture a second plurality of images over the second capture duration, the electronic device captures the second image over the second capture duration. Capture multiple images of (eg, FIGS. 26J-26R). In some embodiments, the first plurality of images (or the second plurality of images) are combined based on analysis of the content of the plurality of images.

いくつかの実施形態では、第1の複数の画像(例えば、図26F~図26G)における画像の量は、第2の複数の画像における画像の量とは異なる(例えば、より多い、又はより少ない)(例えば、図26J~図26R)。いくつかの実施形態では、複数の画像内の画像の量は、キャプチャ持続時間に基づくものであり、より長いキャプチャ持続時間は、より多くの画像を生成する。 In some embodiments, the amount of images in the first plurality of images (eg, FIGS. 26F-26G) is different (eg, more or less than the amount of images in the second plurality of images). ) (eg, FIGS. 26J-26R). In some embodiments, the amount of images in the plurality of images is based on the capture duration, with longer capture durations producing more images.

いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、かつ第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第1の複数の画像のうちの少なくとも一部のコンテンツを含む第1の合成画像(例えば、図26Gの624)を生成する。いくつかの実施形態では、第1の合成画像(例えば、メディアコレクション624内の画像の表現)は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応じて、かつ第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、第2の複数の画像のうちの少なくとも一部のコンテンツを含む第2の合成画像(例えば、図26Rの624)を生成する。いくつかの実施形態では、第2の合成画像は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。いくつかの実施形態では、複数の画像のそれぞれは、画像のコンテンツ(例えば、データ)の分析に基づいて、独立してキャプチャされ、かつ組み合わされる。 In some embodiments, in response to receiving a single request (eg, gesture 2650f or 2650j) to capture images corresponding to one or more camera fields of view, and for a first capture duration, a first Upon determining that the electronic device is configured to capture one plurality of images, the electronic device generates a first composite image (e.g., 624) in FIG. 26G. In some embodiments, the first composite image (eg, a representation of the images in media collection 624) is displayed via the display device after the first composite image is generated. In some embodiments, a second Upon determining that the electronic device is configured to capture two plurality of images, the electronic device generates a second composite image (e.g., 624) in FIG. 26R. In some embodiments, the second composite image is displayed via the display device after the first composite image is generated. In some embodiments, a first plurality of images is produced (e.g., combined) into a first composite image, or a second plurality of images is produced into a second composite image. (e.g. combined). In some embodiments, each of the multiple images is independently captured and combined based on analysis of the content (eg, data) of the images.

いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示している間に、電子デバイスは、(例えば、加速度計及び/又はジャイロスコープにより)電子デバイスの第1の安定度(例えば、図26Rで論じられた)(例えば、電子デバイスの現在の移動量(又は移動の欠如))を検出する。いくつかの実施形態では、電子デバイスは、電子デバイスの第1の安定度(例えば、図26Rで論じられた)を検出したことに応じて、かつ電子デバイスの第1の安定度が第1の安定性閾値を上回る(例えば、電子デバイスがより安定であることを検出する)との判定に従って、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い(例えば、第1のキャプチャ持続時間を増加する)、第3のキャプチャ持続時間(例えば、図26Rの2604c)に設定されているインジケーション(例えば、1818)を表示し;かつ1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)に応じて、第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように電子デバイスを構成する。いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションは、表示を停止される。特定の所定の条件が満たされている(例えば、電子デバイスが安定である)ときに調整可能なコントロールが設定されることのインジケーションの表示を更新することにより、ユーザは、電子デバイスのキャプチャ持続時間が変化したことを迅速に認識することができ、電子デバイスは、変化したキャプチャ持続時間でメディアをキャプチャするように構成される。いくつかの実施形態では、電子デバイスは、画像をキャプチャする単一の要求に応じて、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする代わりに、第3の複数の画像をキャプチャするように構成される。いくつかの実施形態では、電子デバイスの安定度が閾値を下回るとの判定に従って(例えば、電子デバイスがより不安定であることを検出する)、第1のキャプチャ持続時間(又は第2の)は、減少する(例えば、インジケーションは、減少したキャプチャ持続時間を表示し、電子デバイスは、減少したキャプチャ持続時間にわたって画像をキャプチャするように構成される)。いくつかの実施形態では、電子デバイスの安定度が、安定性閾値よりも小さくかつ第2の安定性閾値よりも大きいとの判定に従って(例えば、デバイスの安定感は十分に変化していない)、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを維持し、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするデバイスの構成を維持する。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているという更新されたインジケーションを表示することにより、ユーザは、キャプチャ持続時間に関連する条件が変化したときに動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。新しい多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が変化したときにメディアをキャプチャする要求に応じて、ユーザが新しい多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying the indication that the control is set to the first capture duration, the electronic device measures the electronic device's A first stability measure (eg, discussed in FIG. 26R) (eg, current amount of movement (or lack of movement) of the electronic device) is detected. In some embodiments, the electronic device is responsive to detecting a first stability of the electronic device (eg, discussed in FIG. 26R), and the first stability of the electronic device is the first Upon determining that the stability threshold is exceeded (e.g., detecting that the electronic device is more stable), the control (e.g., 1804) may extend the first capture duration (e.g., the first capture duration ), display an indication (e.g., 1818) set to a third capture duration (e.g., 2604c in FIG. 26R); and capture images corresponding to one or more camera fields of view. Configure the electronic device to capture a third plurality of images for a third capture duration in response to a single request (eg, gesture 2650f or 2650j). In some embodiments, the indication that the control is set to the first capture duration is stopped from displaying. By updating the display of the indication that the adjustable control is set when certain predetermined conditions are met (e.g., the electronic device is stable), the user can control the capture duration of the electronic device. The change in time can be quickly recognized, and the electronic device is configured to capture media with the changed capture duration. In some embodiments, the electronic device captures a third plurality of images instead of capturing the first plurality of images over the first capture duration in response to a single request to capture an image. configured to In some embodiments, the first capture duration (or the second) is , decreases (eg, the indication displays a decreased capture duration and the electronic device is configured to capture images over the decreased capture duration). In some embodiments, upon determining that the stability of the electronic device is less than the stability threshold and greater than the second stability threshold (e.g., the device's sense of stability has not changed sufficiently), Maintaining an indication that the control is set to the first capture duration and maintaining the configuration of the device to capture the first plurality of images over the first capture duration. Also, by displaying an updated indication that the adjustable control is set to a particular capture duration only when a predetermined condition is met, the user is informed about the capture duration. Alleviate the need to calculate a specific capture duration that operates when conditions change. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. Automatically configuring an electronic device to capture a new number of images involves a user configuring the device to capture a new number of images in response to a request to capture media when predetermined conditions change. Reduces the number of inputs that must be manually configured. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光カメラモードの状態(例えば、アクティブ(例えば、図26Hの602c)(例えば、オン)、非アクティブ(例えば、図26Sの602c)(例えば、オフ)、利用可能(例えば、図26Bの602c)(例えば、低光モードが非アクティブであるが、アクティブに設定できる))を示し、かつキャプチャ持続時間表示基準が満たされているとの判定に従って、第1のキャプチャ持続時間(例えば、図26Hの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含む、第1の低光キャプチャ状態インジケータ(例えば、602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光カメラモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、利用可能(例えば、オンにする能力))を示し、かつキャプチャ持続時間表示基準が満たされていないとの判定に従って、第1のキャプチャ持続時間(例えば、図26Eの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含まない、第1の低光キャプチャ状態インジケータを表示する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することをやめることによって、雑然としていないユーザインタフェースを提供し、かつキャプチャ持続時間がキャプチャ持続時間の通常範囲内にあるときにフィードバックによりユーザを視覚的に注意散漫にさせない。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the low-light camera mode is active, the electronic device changes the state of the low-light camera mode (e.g., active (e.g., 602c in FIG. 26H) (e.g., on), inactive (e.g., , 602c of FIG. 26S) (e.g., OFF), available (e.g., 602c of FIG. 26B) (e.g., low light mode is inactive, but can be set to active)), and capture duration display criteria is satisfied, the first capture duration (e.g., 602c in FIG. 26H) (or the second capture duration displaying an indication that the control is set to the second capture duration). display a first low-light capture status indicator (eg, 602c) that includes a visual representation of (eg, 10 seconds of 26J 602c) time). In some embodiments, while the low-light camera mode is active, the electronic device indicates the state of the low-light camera mode (e.g., active (e.g., on), inactive (e.g., off), available (e.g., , ability to turn on)), and upon determination that the capture duration display criteria are not met, the first capture duration (eg, 602c in FIG. 26E) (or the control indicates the second capture duration display a first low-light capture status indicator that does not include a visual representation of (e.g., 10 seconds of 602c of 26J) a second capture duration displaying an indication that it is set to . By displaying a visual representation of the capture duration within the low-light condition indicator when predetermined conditions are met, the electronic device can be used to detect when the capture duration is outside the normal range for the capture duration. capture media, providing feedback to the user on the current state of the capture duration. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. Providing a less cluttered user interface and keeping the capture duration normal to the capture duration by ceasing to display the visual representation of the capture duration in the low light condition indicator when predetermined conditions are met. Do not visually distract the user with feedback when in range. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、キャプチャ持続時間表示基準は、1つ以上のカメラの視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む(例えば、2680a~c対2680d)。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光(例えば、2680a~d)が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(例えば、図26Jの602c及びインジケータ1818によって設定されたキャプチャ持続時間)(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, the capture duration display criteria include criteria met when ambient light within the field of view of one or more cameras is within a first predetermined range (eg, 2680a-c vs. 2680d ). In some embodiments, when the ambient light within the field of view of one or more cameras changes, the electronic device detects whether the ambient light (eg, 2680a-d) falls within a first predetermined range or a second predetermined range. automatically determine whether to display a visual representation of the first capture duration (eg, the capture duration set by 602c and indicator 1818 in FIG. 26J) (or the second capture duration) based on whether there is a re-evaluate

低光カメラモードがアクティブである前に、いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の周辺光(例えば、2680d)が第2の所定の範囲内にある(例えば、1ルクスなどの閾値を下回る)(例えば、キャプチャ持続時間表示基準を満たす第1の所定の範囲内にあるときに判定される)との判定に従って、低光カメラモードの状態がアクティブである(例えば、低光カメラモードがアクティブであること(例えば、デバイスが、メディアをキャプチャする要求に応じて、低光カメラモードでメディアをキャプチャするように現在構成されていること)を示す状態)ことを示し、かつ第3のキャプチャ持続時間(例えば、第1又は第2のキャプチャ持続時間)の視覚表現(例えば、26Hの「5秒」)を含む、第2の低光キャプチャ状態インジケータ(例えば、図26Hの602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである前に、1つ以上のカメラの視野内の周辺光(例えば、2680c)が第4の所定の範囲(例えば、1ルクス~10ルクスなどの所定の範囲)内にあるとの判定に従って、低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現(例えば、図26Eの602c)を含まない、第3の低光キャプチャ状態インジケータ(例えば、図26Eの602c)を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680b)が第5の所定の範囲(例えば、10~20ルクスなどの所定の範囲)内であるとの判定に従って、低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータ(例えば、図26Bの602c)(例えば、アクティブ化のために利用可能であるが、現在アクティブではない)(例えば、低光カメラモードが利用可能であること(例えば、デバイスが、低光カメラモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得ること)を示す状態、低光カメラモードが利用可能であり、かつユーザによって手動でオン又はオフされていないことを示す状態(例えば、デバイスは、低光キャプチャモードインジケータが最初に(最近)表示されてから、又は低光キャプチャモードインジケータを表示する判定を行ってから、低光カメラモードでメディアをキャプチャする又はキャプチャしないように構成されていない))を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680a)が第6の所定の範囲内(例えば、20ルクス超などの所定の範囲)にあるとの判定に従って、電子デバイスは、第2の低光キャプチャ状態インジケータ、第3の低光キャプチャ状態インジケータ、及び第4の低光キャプチャ状態インジケータ、を表示することをやめる(例えば、図26Aの602cが不存在)。いくつかの実施形態では、第2の低光キャプチャ状態インジケータと、第3の低光キャプチャ状態インジケータと、第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光キャプチャモードの状態が利用可能であることを示す第4の低光状態インジケータは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第6の所定の範囲にあるとの判定に従って、電子デバイスは、任意の低光キャプチャ状態インジケータを表示することをやめる。いくつかの実施形態では、(例えば、周辺光の)第3の所定の範囲は、(例えば、周辺光の)第4の所定の範囲よりも小さく、(例えば、周辺光の)第4の所定の範囲は、(例えば、周辺光の)第5の所定の範囲よりも小さく、第5の所定の範囲は、(例えば、周辺光の)第6の所定よりも小さい。いくつかの実施形態では、所定の範囲は、重複しない(例えば、重複していない所定の範囲)。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、ユーザインタフェースを雑然とさせることなく、電子デバイスが低光カメラモードの間にメディアをキャプチャするように構成され、かつキャプチャ持続時間の通常範囲にあるメディアをキャプチャするためのキャプチャ持続時間を使用するというフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。所定の条件が満たされているときに低光状態が利用可能であることを示す低光キャプチャ状態インジケータを表示することによって、ユーザが、電子デバイスが低光カメラモードにある間にメディアをキャプチャするように構成されていないが、低光カメラモードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成されるために利用可能であることを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光カメラモードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光キャプチャ状態インジケータを表示することをやめることによって、ユーザが、低光カメラモードにある間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応じて、電子デバイスが低光カメラモードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Before the low light camera mode is active, in some embodiments, the electronic device determines that the ambient light (e.g., 2680d) within the field of view of one or more cameras is within a second predetermined range (e.g., , below a threshold such as 1 lux) (e.g., determined when within a first predetermined range that satisfies the capture duration display criteria), the state of the low-light camera mode is active (e.g., state indicating that the low-light camera mode is active (e.g., the device is currently configured to capture media in low-light camera mode in response to a request to capture media). and includes a visual representation (eg, "5 seconds" of 26H) of a third capture duration (eg, first or second capture duration). 602c) of 26H is displayed. In some embodiments, the ambient light (eg, 2680c) within the field of view of the one or more cameras is in a fourth predetermined range (eg, 1 lux to 10 lux, etc.) before the low light camera mode is active. , indicating that the low-light camera mode state is active and not including a visual representation of the third capture duration (e.g., 602c in FIG. 26E). 3 low light capture status indicator (eg, 602c in FIG. 26E); ambient light (eg, 2680b) within the field of view of one or more cameras is within a fifth predetermined range (eg, 10-20 lux, etc.); a fourth low-light capture status indicator (e.g., 602c in FIG. 26B) indicating that the status of the low-light camera mode is available (e.g., for activation). (e.g., the device is not currently configured to capture media in low-light camera mode, but is not currently active) (e.g., the device is not currently configured to capture media in low-light camera mode, but is state indicating that the low-light camera mode is available and has not been manually turned on or off by the user (e.g., the device may be configured to capture media in low-light mode); not configured to capture or not capture media in low light camera mode since the light capture mode indicator was first (recently) displayed or a decision was made to display the low light capture mode indicator)) and upon determining that the ambient light (e.g., 2680a) within the field of view of one or more cameras is within a sixth predetermined range (e.g., a predetermined range such as greater than 20 lux), the electronic device displays , the second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator (eg, 602c in FIG. 26A is absent). In some embodiments, the second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually distinct from each other (e.g., displayed color , different textures, thicknesses, letters, or markings (e.g., strikethrough to indicate inactivity), with or without a visual representation of the capture duration). In some embodiments, the fourth low-light state indicator indicating availability of the low-light capture mode state does not include a visual representation of the capture duration (eg, the third capture duration). In some embodiments, the electronic device ceases to display any low-light capture status indicator following determining that ambient light within the field of view of one or more cameras is within a sixth predetermined range. In some embodiments, the third predetermined range (eg, of ambient light) is less than the fourth predetermined range (eg, of ambient light) and the fourth predetermined range (eg, of ambient light) is less than a fifth predetermined range (eg of ambient light), which is less than a sixth predetermined range (eg of ambient light). In some embodiments, the predetermined ranges are non-overlapping (eg, non-overlapping predetermined ranges). By displaying a visual representation of the capture duration within the low-light condition indicator when predetermined conditions are met, the electronic device can be used to detect when the capture duration is outside the normal range for the capture duration. capture media, providing feedback to the user on the current state of the capture duration. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. By displaying a visual representation of the capture duration within the low-light condition indicator when predetermined conditions are met, the electronic device can be used to detect when the capture duration is outside the normal range for the capture duration. capture media, providing feedback to the user on the current state of the capture duration. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. An electronic device is configured to capture media during low light camera mode without cluttering the user interface by displaying a low light condition indicator without a visual representation when predetermined conditions are met. and provide feedback to the user to use the capture duration to capture media that is within the normal range of capture durations. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. Allowing a user to capture media while the electronic device is in a low light camera mode by displaying a low light capture state indicator indicating that low light states are available when predetermined conditions are met but is available to be configured (e.g., via user input) to capture media in low-light camera mode, so that the user can To quickly understand that an electronic device does not operate according to a low-light camera mode in response to receiving a request to capture a . Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. The electronic device is not configured to capture media while the user is in the low-light camera mode by ceasing to display the low-light capture status indicator when predetermined conditions are met. so that the user can quickly understand that the electronic device will not operate according to the low-light camera mode in response to receiving a request to capture media. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の推奨されるキャプチャ持続時間値(例えば、キャプチャ持続時間が最小値であることを示す値、複数の画像よりも単一の画像を示す値は、単一のキャプチャ要求に応じて、キャプチャされる)に対応する第1の状態(例えば、2604a)(例えば、中心の左(例えば、最も遠い左)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、第2の推奨されるキャプチャ持続時間値(例えば、最小ユーザ選択可能値よりも大きく、かつ現在の条件でユーザによって設定され得る最大利用可能値よりも小さい、電子デバイスによって設定された値)に対応する第2の状態(例えば、2604b)(例えば、コントロール上の調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の中心位置)と、第3の推奨されるキャプチャ持続時間値(例えば、現在の条件でユーザによって設定され得る最大利用可能値、最大利用可能値は、照明条件及び又はカメラ安定性が変化するにつれて任意選択的に変化する(照明レベルが低下し、かつ/又はカメラがより安定であると増加し、照明レベルが増加し、かつ/又はカメラがより不安定であると減少する)に対応する第3の状態(例えば、2604c)(例えば、中心の右(例えば、最も遠い右)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、に調整可能であるように構成されている。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態のコントロール上の位置がコントロール上に表示され、かつ互いに視覚的に区別可能である(例えば、異なるように標識される(例えば、「OFF」、「自動」、「MAX」)。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態の調整可能なコントロール(例えば、ティックマーク)上の位置が調整可能なコントロール上の他の位置(例えば、ティックマーク)から視覚的に区別可能である。いくつかの実施形態では、(例えば、第1、第2、及び第3の状態とは視覚的に異なる)1つ以上の選択可能状態が存在する。いくつかの実施形態では、調整可能なコントロールは、選択可能状態に対応する位置に設定され得る。いくつかの実施形態では、調整可能なコントロールは、選択可能状態のうちの2つ以上の位置の間である位置(例えば、中間位置)に設定され得る。低光モードにある間に電子デバイスがメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、特定のキャプチャ持続時間の既定の状態(例えば、オフ状態、デフォルト状態、最大状態)に対応するキャプチャ持続時間についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the control for adjusting the capture duration for capturing media (eg, 1804) is set to a first recommended capture duration value (eg, a value indicating the minimum capture duration). , a value indicating a single image rather than multiple images is captured in response to a single capture request) corresponding to a first state (eg, 2604a) (eg, left of center (eg, most far left) on an adjustable control (e.g., a tick mark for an adjustable control at position) and a second recommended capture duration value (e.g., greater than the minimum user-selectable value , and a value set by the electronic device that is less than the maximum available value that can be set by the user under current conditions) (e.g., 2604b) corresponding to a second state (e.g., an adjustable control on the control (e.g., For example, a tick mark on an adjustable control at position (center position) and a third recommended capture duration value (e.g., maximum available value that can be set by the user under current conditions, maximum available The value optionally changes as lighting conditions and/or camera stability change (increasing when lighting level decreases and/or when camera is more stable, when lighting level increases and/or when camera adjustable control (e.g., position adjustable A position on the tick mark ) of the control, and in some embodiments, when displaying the adjustable control, the first state, the second state, the and the position on the control of the third state are displayed on the control and are visually distinguishable from each other (e.g., labeled differently (e.g., "OFF", "AUTO", "MAX") In some embodiments, when displaying the adjustable control, the position on the adjustable control (e.g., tick mark) of the first state, the second state, and the third state is adjustable. is visually distinguishable from other locations on the control (e.g., tick marks), and in some embodiments is (e.g., visually distinct from the first, second, and third states) There are one or more selectable states, some embodiments , the adjustable control may be set to a position corresponding to the selectable state. In some embodiments, an adjustable control may be set to a position that is between two or more of the selectable states (eg, an intermediate position). Supports specific capture duration default states (e.g. off state, default state, maximum state) by displaying controls to adjust the capture duration for which the electronic device captures media while in low light mode Provide feedback to the user on the capture duration to be used. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、電子デバイスは、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、第2の状態(例えば、図26Gの2604b)(例えば、コントロールが第1のキャプチャ持続時間に設定されているインジケーションがコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第1のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Gの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示し;かつ1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、第2の状態(例えば、図26Iの2604b)(例えば、コントロールが第2のキャプチャ持続時間に設定されているインジケーションがコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第2のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと(例えば、に)調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Iの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying controls (e.g., 1804) for adjusting the capture duration for capturing media, the electronic device indicates that a set of first capture duration criteria have been met. A second state (e.g., 2604b in FIG. 26G) (e.g., the indication that the control is set to the first capture duration is set to the second recommended capture duration value on the control). (where the first capture duration is the second recommended capture duration value) to adjust the capture duration to capture the media adjusted to the position corresponding to (e.g., 1804 in FIG. 26G) (e.g., when the control is displayed (e.g., is first displayed)); and a set of second capture duration criteria are met. According to the determination, a second state (eg, 2604b of FIG. 26I) (eg, an indication that the control is set to the second capture duration corresponds to the second recommended capture duration value on the control). Adjust the capture duration to capture media adjusted to (for example, to) (where the second capture duration is the second recommended capture duration value) displayed in the position (eg, when the control is displayed (eg, first displayed)). By providing different recommended capture durations for capture duration states based on when each predetermined condition is met, the user can specify the respective capture duration to be used when each predefined condition is met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態(例えば、2604c)であるとの判定、及び1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Rの2604c)が、第3のキャプチャ持続時間値であり、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態にあるとの判定、及び1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Sの2604c)が、第3のキャプチャ持続時間値とは異なる(例えば、第3のキャプチャ持続時間値よりも大きい)第4のキャプチャ持続時間値である。いくつかの実施形態では、最大ユーザ選択可能キャプチャ持続時間は、動的であり、かつオンカメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きのうちの1つ以上に基づいて変化する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying the control for adjusting the capture duration for capturing media (e.g., 1804), the control for adjusting the capture duration for capturing media is in a third state (e.g., , 2604c) and that a set of first capture duration criteria are met, a third recommended capture duration value (eg, 2604c in FIG. 26R) is A third capture duration value, determining that a control adjusting the capture duration for capturing media is in a third state, and determining that a second set of capture duration criteria are met. According to the determination, the third recommended capture duration value (eg, 2604c in FIG. 26S) is different than the third capture duration value (eg, greater than the third capture duration value). is the capture duration value. In some embodiments, the maximum user-selectable capture duration is dynamic and based on one or more of on-camera stabilization, environmental conditions, light levels, camera motion, and/or scene motion. Change. By providing different recommended capture durations for capture duration states based on when each predetermined condition is met, the user can specify the respective capture duration to be used when each predefined condition is met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、第3の推奨されるキャプチャ持続時間値は、第6の持続時間キャプチャ値である。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイスは、電子デバイスの現在の条件(例えば、電子デバイスの安定化、1つ以上のカメラによって検出された周辺光、1つ以上のカメラの視野内の移動)の第1の変化を検出する。いくつかの実施形態では、電子デバイスの現在の条件の第1の変化を検出したことに応じて、かつ第1の現在の条件が第3のキャプチャ持続時間基準を満たすとの判定に従って、電子デバイスは、第2の推奨されるキャプチャ持続時間値(例えば、2604b)のうちの少なくとも1つを、第7のキャプチャ持続時間値に変更する。いくつかの実施形態では、第5のキャプチャ持続時間値は、第7のキャプチャ持続時間値とは異なる。いくつかの実施形態では、第3の推奨されるキャプチャ持続時間値(例えば、2604c)を、第8のキャプチャ持続時間値に。いくつかの実施形態では、第8のキャプチャ持続時間値は、第6のキャプチャ持続時間値とは異なる。 In some embodiments, the second recommended capture duration value is the fifth capture duration value and the third recommended capture duration value is the sixth duration capture value. . In some embodiments, while displaying controls for adjusting the capture duration for capturing media (e.g., 1804), the electronic device controls the current conditions of the electronic device (e.g., stabilization of the electronic device, A first change in ambient light detected by one or more cameras, movement within the field of view of one or more cameras) is detected. In some embodiments, in response to detecting a first change in a current condition of the electronic device and in accordance with determining that the first current condition satisfies a third capture duration criterion, the electronic device changes at least one of the second recommended capture duration values (eg, 2604b) to a seventh capture duration value. In some embodiments, the fifth capture duration value is different than the seventh capture duration value. In some embodiments, the third recommended capture duration value (eg, 2604c) to the eighth capture duration value. In some embodiments, the eighth capture duration value is different than the sixth capture duration value.

いくつかの実施形態では、1組の第1のキャプチャ持続時間基準(例えば、又は第2のキャプチャ持続時間基準)は、1つ以上のカメラの視野内で検出された周辺光(例えば、対応する期間にわたって周辺光の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、周辺光の第1の所定の範囲とは異なる周辺光の第2の所定範囲を上回る)、1つ以上のカメラの視野内で検出された周辺光)と、1つ以上のカメラの視野内で検出された移動(例えば、対応する期間にわたって1つ以上のカメラの視野内の検出された移動の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、1つ以上のカメラの視野内の第1の所定の移動範囲とは異なる1つ以上のカメラの視野内の第2の所定の移動範囲を上回る)、1つ以上のカメラの視野内で検出された移動)と、電子デバイスの(例えば、加速度計及び/又はジャイロスコープによる)第2の安定度(例えば、対応する期間にわたって電子デバイスの現在の移動量(又は移動の欠如))(例えば、第2の安定性閾値を上回る、電子デバイスの第2の安定度(又は、第2のキャプチャ持続時間の場合、第2の安定性閾値とは異なる第3の安定性閾値を上回る)と、からなる群から選択される1つ以上のパラメータに基づく基準を含む。 In some embodiments, the set of first capture duration criteria (eg, or second capture duration criteria) is detected ambient light within the field of view of one or more cameras (eg, corresponding within a first predetermined range of ambient light for a period of time (or, for a second capture duration criterion, above a second predetermined range of ambient light that is different from the first predetermined range of ambient light) , ambient light detected within the field of view of one or more cameras) and movement detected within the field of view of one or more cameras (e.g., detected motion within the field of view of one or more cameras over a corresponding period of time). Within a first predetermined range of movement (or, for a second capture duration criterion, one or more camera fields of view different from the first predetermined range of movement within the field of view of one or more cameras movement detected within the field of view of one or more cameras), and a second stability of the electronic device (e.g., by accelerometer and/or gyroscope) ( For example, the current amount of movement (or lack of movement) of the electronic device over a corresponding period of time (e.g., the second stability of the electronic device above the second stability threshold (or the second capture duration) if above a third stability threshold different from the second stability threshold), and criteria based on one or more parameters selected from the group consisting of:

いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することの一部として、電子デバイスは、1つ以上のカメラの視野の表現(例えば、603)と同時に、メディアをキャプチャするアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスを表示、かつコントロール(例えば、1804)が第3のキャプチャ持続時間(例えば、第1のキャプチャ持続時間、第2のキャプチャ持続時間、又はコントロールを設定することに向けられたユーザ入力で設定された別の持続時間)に設定されているインジケーション(例えば、1818)を表示している間に、電子デバイスは、メディアをキャプチャするアフォーダンスの選択を含む第1の入力(例えば、2650j)(例えば、タップ)を検出する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスの選択は、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に対応する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始する。 In some embodiments, as part of displaying the media capture user interface, the electronic device simultaneously renders the view of one or more cameras (e.g., 603) and affordances of capturing media (e.g., 610 ) (eg, a selectable user interface object). In some embodiments, an affordance to capture media is displayed and a control (eg, 1804) sets a third capture duration (eg, first capture duration, second capture duration, or control While displaying an indication (e.g., 1818) set to an indication (e.g., 1818) set to another duration set by user input directed to doing, the electronic device includes selection of affordances to capture media Detect the first input (eg, 2650j) (eg, tap). In some embodiments, the selection of affordances to capture media corresponds to a single request to capture images corresponding to the fields of view of one or more cameras. In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance of capturing media, the electronic device captures a fourth plurality of images over a first capture duration. Start capturing.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第1のインジケーションである。いくつかの実施形態では、第1のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第1の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、コントロール上の第1の位置からコントロール上の第2の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)に第1のインジケーションを動かすアニメーション(例えば、図26J~図26Q)を表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、第2の位置に第1のインジケーションを表示したことに応じて、電子デバイスは、コントロール上の第1の位置に第1のインジケーションを再表示する(例えば、図26Q~図26Rの1818)(及びコントロール上の第2の位置での第1のインジケーションを表示することを停止する)。予め設定されたキャプチャ持続時間に対応する位置に戻って、キャプチャ持続時間を調整するコントロール上のインジケーションを再表示することにより、ユーザは、直近にキャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間を迅速に認識することができ、ユーザがキャプチャ持続時間を調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (eg, 1818) that the control (eg, 1804) is set to the third capture duration is the first indication. In some embodiments, the first indication is displayed at a first location on the control corresponding to the third capture duration. In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance of capturing media, the electronic device moves from a first position on the control to a second position on the control. Display an animation (e.g., FIGS. 26J-26Q) that moves the first indication to a position (e.g., a position on the control corresponding to a zero capture duration that is different than the third capture duration) (e.g., , the second position on the control is different than the first position on the control) (e.g. slide an indication (e.g. slider bar) across a slider) (e.g. unwind (e.g. value to zero countdown)). In some embodiments, in response to displaying the first indication at the second location, the electronic device redisplays the first indication at the first location on the control (e.g., FIG. 26Q-1818 in FIG. 26R) (and stop displaying the first indication at the second position on the control). By returning to the position corresponding to the preset capture duration and redisplaying the indication on the control that adjusts the capture duration, the user is informed that the most recently captured media was used to capture the captured media. The capture duration can be recognized quickly, reducing the number of inputs the user needs to reset the controls that adjust the capture duration. By providing improved visual feedback to the user and reducing the number of inputs required to perform an operation, the device is more operable and the user-device interface (e.g., manipulating the device/ to make it more efficient (by helping users make appropriate inputs and reducing user error when interacting with reduces device power usage and improves battery life.

いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第2のインジケーションである。いくつかの実施形態では、第2のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第3の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力を検出したことに応じて、電子デバイスは、コントロール上の第3の位置からコントロール上の第4の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)に第2のインジケーションを動かすアニメーションを表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、アニメーションを表示している間に、電子デバイスは、電子デバイスの現在の条件の第2の変化を検出する。いくつかの実施形態では、現在の条件の第2の変化を検出したことに応じて、かつ第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ第4の位置(例えば、最大キャプチャ持続時間値(又は第3の推奨されるキャプチャ持続時間値)の位置に対応する位置)に第1のインジケーションを表示したことに応じて、電子デバイスは、第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応するコントロール上の第5の位置に、第2のインジケーションを表示する。いくつかの実施形態では、現在の条件が第4のキャプチャ持続時間基準を満たさないとの判定に従って、かつ第4の位置に第2のインジケーションを表示したことに応じて、電子デバイスは、コントロール上の第3の位置に第2のインジケーションを再表示する。所定の条件であるときにキャプチャ持続時間を異なるキャプチャ持続時間値に調整するコントロール上のインジケーションを表示することにより、ユーザは、最も最近キャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間が変化したことを迅速に認識することができ、ユーザが、キャプチャ持続時間を所定の条件に好ましい(例えば、キャプチャの長さをバランスしている間により良い品質画像を生成する可能性が高い)新しいキャプチャ持続時間に調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を実行するために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, an indication (eg, 1818) that a control (eg, 1804) is set to a third capture duration is a second indication. In some embodiments, the second indication is displayed at a third location on the control corresponding to a third capture duration. In some embodiments, in response to detecting a first input corresponding to an affordance of capturing media, the electronic device moves from a third position on the control to a fourth position on the control (e.g., a fourth position on the control). display an animation that moves the second indication to a position on the control that corresponds to a capture duration of zero, which is different than a capture duration of 3 (e.g., the second position on the control corresponds to the second position on the control). different from position 1) (eg, slide an indication (eg, slider bar) across a slider) (eg, roll out (eg, countdown from value to zero)). In some embodiments, while displaying the animation, the electronic device detects a second change in the current condition of the electronic device. In some embodiments, in response to detecting a second change in the current condition and in accordance with determining that the second current condition satisfies a fourth capture duration criterion, and a fourth position In response to displaying the first indication (e.g., at a position corresponding to the position of the maximum capture duration value (or the third recommended capture duration value)), the electronic device performs a third capture A second indication is displayed at a fifth location on the control corresponding to a fourth capture duration that is different than the duration. In some embodiments, following determining that the current condition does not meet the fourth capture duration criterion and in response to displaying the second indication at the fourth location, the electronic device controls the Redisplay the second indication at the third position above. By displaying an indication on the control that adjusts the capture duration to different capture duration values when certain conditions are met, the user can determine the capture duration used to capture the most recently captured media. has changed, and the user prefers the capture duration for a given condition (e.g., it is likely to produce a better quality image while balancing capture length). Reduces the number of inputs that need to be reset to adjust controls to the new capture duration. By providing improved visual feedback to the user and reducing the number of inputs required to perform an operation, the device is more operable and the user-device interface (e.g., manipulating the device/ to make it more efficient (by helping users make appropriate inputs and reducing user error when interacting with reduces device power usage and improves battery life.

いくつかの実施形態では、(例えば、1つ以上のカメラにより)メディアをキャプチャする間に(例えば、キャプチャを開始した後に)、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第1の時間において、電子デバイスは、第1の時間の前に(例えば、第1の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現(例えば、630)表現(例えば、図18A~図18Xの624)を表示し、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第2の時間において、電子デバイスは、第2の時間の前に(例えば、第2の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現(例えば、630)(例えば、図18A~図18Xの624)を表示する。いくつかの実施形態では、第1の時間は、第2の時間とは異なる。いくつかの実施形態では、第3の合成画像の表現は、第4の合成画像の表現と視覚的に区別される。 In some embodiments, while capturing media (eg, by one or more cameras) (eg, after starting capture), begin capturing a first plurality of images for a first capture duration. at a first time after the electronic device was captured by one or more cameras before the first time (e.g., before the first time and after the time capture was initiated) displaying a representation (eg, 630) of a third composite image (eg, 624 in FIGS. 18A-18X) based on at least some content from the plurality of images; At a second time after beginning image capture, the electronic device performs one or more Display a fourth composite image representation (eg, 630) (eg, 624 in FIGS. 18A-18X) based on at least some content from the multiple images captured by the camera. In some embodiments, the first time is different than the second time. In some embodiments, the representation of the third composite image is visually distinct from the representation of the fourth composite image.

いくつかの実施形態では、メディアをキャプチャするアフォーダンス(例えば、610)に対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、メディアをキャプチャするアフォーダンスの視覚外観(例えば、暗くする)を変更する。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができないことを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to an affordance to capture media (eg, 610), the electronic device displays the visual appearance of the affordance to capture media (eg, 610). darken). It provides feedback to the user about the current state of the icon by updating the icon's visual properties to reflect the activation state without performing any action, and provides feedback to the user about the current state of the icon, even if the electronic device is capturing media. provide visual feedback to the user indicating that the capture of media cannot be interrupted or stopped during media capture. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、メディア(例えば、2650j)をキャプチャするアフォーダンス(例えば、610)に対応する第1の入力を検出したことに応じて、電子デバイスは、メディアをキャプチャするアフォーダンスの表示を、メディアをキャプチャするアフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンス(例えば、1806)(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))の表示に置き換える。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンスがカメラ持続時間に基づいて、時間中に表示された後、電子デバイスは、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンスに置き換える。いくつかの実施形態では、停止アフォーダンスを表示している間に、電子デバイスは、キャプチャ持続時間の終了前に停止アフォーダンスの選択に対応する入力を受信し、停止ボタンに対応する入力を受信したことに応じて、電子デバイスは、複数の画像をキャプチャするのを停止する。いくつかの実施形態では、キャプチャの終了前に停止アフォーダンスを選択することにより、より少ない画像をキャプチャさせる。いくつかの実施形態では、より少ない画像で生成された合成画像は、より多くの画像(例えば、又はフルキャプチャ持続時間中に撮影された画像)で生成された合成画像よりも暗くなる。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができ、かつユーザがアイコンを1回以上アクティブ化する場合には、アイコンに関連付けられた動作が実行されることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to detecting a first input corresponding to an affordance (eg, 610) to capture media (eg, 2650j), the electronic device displays a display of the affordance to capture media, Replace the display of an affordance (eg, 1806) to terminate media capture (eg, a stop affordance (eg, a selectable user interface object)) that is visually distinct from the affordance to capture media. In some embodiments, the stopping affordance is displayed over time based on the camera duration. In some embodiments, after the stop affordance has been displayed for a time based on the camera duration, the electronic device displays the display of the stop affordance upon expiration of the camera duration for the request to capture media. Replace with affordance. In some embodiments, while displaying the stop affordance, the electronic device received input corresponding to selection of the stop affordance before the end of the capture duration and received input corresponding to the stop button. In response, the electronic device stops capturing multiple images. In some embodiments, choosing a stop affordance before the end of capture causes fewer images to be captured. In some embodiments, a composite image generated with fewer images will be darker than a composite image generated with more images (eg, or images taken during the full capture duration). It provides feedback to the user about the current state of the icon by updating the icon's visual properties to reflect the activation state without performing any action, allowing the electronic device to capture the media, but not the media. can be interrupted or stopped during media capture, and if the user activates the icon one or more times, visual feedback is given to the user indicating that the action associated with the icon will be performed. offer. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応じて、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルよりも大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(例えば、図26J~図26Q及び図28A~図28Bの方法2800に関連して後述及び上述したように)。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスは、a)メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、かつb)メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting a first input (e.g., 2650j) corresponding to an affordance to capture media, the electronic device, via the display device, determines when media capture is initiated. and the pose (e.g. orientation and/or position) of the electronic device at a first time after starting media capture (e.g. orientation and/or position) (e.g. The degree between one or more different rotation angles or axes (e.g., any value including zero degrees), the degree between the orientations of the electronic device when media capture was initiated, and a threshold level of difference display a visual indication (e.g., 2670) (e.g., one or more shapes with different colors, a box containing lines with different colors) of the large, orientation of the electronic device after media capture is initiated (eg, as described below and above with respect to method 2800 of FIGS. 26J-26Q and 28A-28B). In some embodiments, the pose difference is measured relative to a previous pose of the electronic device. In some embodiments, the pose difference is measured relative to a previous pose of the subject (eg, current or time-delayed orientation of the electronic device) within the field of view of one or more cameras. In some embodiments, the difference is a non-zero difference. In some embodiments the difference is zero. In some embodiments, at a first time after initiating media capture via one or more cameras, the electronic device: having a first appearance according to the orientation of the electronic device at a first time having the first difference value; and b) a second difference value from the orientation of the electronic device at the time to start capturing media. A visual guide is displayed having a second appearance different from the first appearance according to the orientation of the electronic device at the first time having it. By providing visual guidance, the user can quickly recognize when the electronic device has moved from its original position after media capture has begun, and the user can be assured that the maximum number of images has been used. The same framing can be maintained when capturing multiple images so that it is possible and can be easily combined to form a usable or improved merged photograph. Providing improved visual feedback enhances the usability of the device and improves the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device). , by reducing user error), and in addition by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. .

いくつかの実施形態では、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後に、かつ第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャの終了を検出する前に、電子デバイスは、第1のキャプチャ持続時間が閾値を上回る(例えば、図26Jの2604b)(例えば、1秒(単数又は複数)などの閾値を下回る)との判定に従って、1つ以上の低光モードアニメーションを表示し(例えば、図26J~図26Q)、第1のキャプチャ持続時間が閾値を上回らないとの判定に従って(例えば、図26Fの2604b)、1つ以上の低光モードアニメーションを表示することをやめる(例えば、図26F~図26G)(例えば、シャッターアフォーダンスを退色させる、アニメーションを展開する、ガイダンスを示すなど)。いくつかの実施形態では、低光モードアニメーションは、デバイスを依然として保持するための視覚ガイダンス(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差の視覚インジケーション)、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを更新するアニメーション、調整可能なコントロール上のインジケーションを更新すること、1つ以上のカメラの視野の表現を更新するアニメーションを含む。いくつかの実施形態では、電子デバイスは、キャプチャを開始する前の状態で表示を維持することによって、1つ以上の低光モードアニメーションを表示することをやめる。所定の条件が満たされているときにのみ、アニメーションを表示することにより、ユーザは、電子デバイスがメディアをキャプチャしているかどうかを迅速に認識することができ、キャプチャされたメディアの状態のインジケーション、及びデバイスがメディアをキャプチャしている間のメディアキャプチャの改善方法に関するガイダンスを提供する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after initiating capture of the first plurality of images for the first capture duration and before detecting the end of capturing the first plurality of images for the first capture duration , the electronic device emits one or more low-light exposures in accordance with a determination that the first capture duration is above a threshold (eg, 2604b in FIG. 26J) (eg, below a threshold such as 1 second(s)). Displaying the mode animation (eg, FIGS. 26J-26Q) and, upon determining that the first capture duration does not exceed the threshold (eg, 2604b in FIG. 26F), displaying one or more low light mode animations (eg, Figures 26F-26G) (eg, fade shutter affordance, develop animation, show guidance, etc.). In some embodiments, the low-light mode animation provides visual guidance for still holding the device (e.g., pose (e.g., orientation and/or position) of the electronic device when media capture begins, and electronic visual indication of the difference between the pose (e.g., orientation and/or position) of the device; animations updating controls that adjust the capture duration to capture media; updating indications on adjustable controls , including animations that update the representation of one or more cameras' views. In some embodiments, the electronic device ceases to display one or more low light mode animations by keeping the display in the state it was in before capturing began. By displaying the animation only when predetermined conditions are met, the user can quickly recognize whether or not the electronic device is capturing media, providing an indication of the state of the captured media. , and guidance on how to improve media capture while the device is capturing media. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

方法2700に関して上述された処理(例えば、図27A~図27C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2800、3000、3200、3400、3600、3800、4000、及び4200は、方法2700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2800は、任意選択的に、方法2700に関連して上述した様々な技術を使用して、合成画像を生成するために、複数の画像をキャプチャする1つ以上の技術を採用する。 Note that details of the processing (eg, FIGS. 27A-27C) described above with respect to method 2700 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2800, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2700. Optionally includes one or more of the characteristics of various methods. For example, method 2800 optionally employs one or more techniques of capturing multiple images to generate a composite image using various techniques described above in connection with method 2700.

図28A~図28Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法2800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 28A-28B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. Method 2800 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 2800 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法2800は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 2800 provides an intuitive way to provide guidance while capturing media. This method reduces the user's cognitive burden in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to capture media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を有する。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(2802)。 An electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras on the same or different sides of the electronic device (e.g., front camera, rear camera)). (e.g., dual cameras, triple cameras, quad cameras, etc.). The electronic device may, via a display device, view one or more cameras (e.g., the open observable area visible to the camera, the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens). Display 2802 a media capture user interface that includes a representation of the field of view (eg, 630) (eg, representation over time, live preview feed of data from camera).

表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2650j)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のユーザ入力)を受信する(2804)。 While displaying the media capture user interface via the display device, the electronic device receives a request (e.g., 2650j) to capture media (e.g., a shutter displayed or physically connected to the display device). Affordances (eg, user input on selectable user interface objects) are received (2804).

メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(2806)。 In response to receiving a request to capture media, the electronic device begins capturing media via one or more cameras (eg, via at least a first camera of the one or more cameras). (2806).

1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアをキャプチャする要求を受信したことに応じて、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアキャプチャインタフェースを表示又は更新した)後の第1の時間において(2808)、低光モードがアクティブであるとき(例えば、図26Jの602c)(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されているとき)に満たされる基準を含む、1組のガイダンス基準(例えば、低光モードがアクティブであるときのキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に基づく1組のガイダンス基準)が満たされているとの判定に従って、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との間の差(例えば、1つ以上の異なる回転角度又は回転軸間の度(例えば、ゼロ度を含む任意の値)、差の閾値レベルよりも大きい、メディアのキャプチャが開始されたときの電子デバイスの向きとメディアのキャプチャが開始された後の電子デバイスの向きとの間の度)の視覚インジケーション(例えば、図2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(2810)。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、かつ、メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された場合、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 initiated media capture via one or more cameras (e.g., initiated media capture in response to receiving a request to capture media; initialized one or more cameras; media capture At a first time (2808) after displaying or updating the interface), when the low light mode is active (eg, 602c in FIG. 26J) (eg, at least one of the one or more cameras is in low light). A set of guidance criteria (e.g. capture duration when low light mode is active (e.g. time (e.g. total capture time, exposure time), measured in number of pictures/frames), the electronic device communicates, via the display device, when media capture is initiated. and the pose (e.g. orientation and/or position) of the electronic device at a first time after starting media capture (e.g. orientation and/or position) (e.g. The degree between one or more different rotation angles or rotation axes (e.g., any value including zero degrees), greater than the threshold level of the difference, the orientation of the electronic device and the capture of media when media capture is initiated. display a visual indication (e.g., diagram 2670) (e.g., one or more shapes with different colors, a box containing lines with different colors) (2810). In some embodiments, the low light camera mode is active when low light conditions are met. In some embodiments, the low light condition provides a low light condition indicator that indicates that the electronic device is operating in a low light mode when ambient light within the field of view of one or more cameras is below respective thresholds. When the user selects (e.g., turns on), low light conditions are met when the user turns on or activates a setting that activates the low light camera mode, including conditions that are met. In some embodiments, the pose difference is measured relative to a previous pose of the electronic device. In some embodiments, the pose difference is measured relative to a previous pose of the subject (eg, current or time-delayed orientation of the electronic device) within the field of view of one or more cameras. In some embodiments, the difference is a non-zero difference. In some embodiments the difference is zero. In some embodiments, at a first time after starting media capture via one or more cameras, a first difference value from the orientation of the electronic device at the time to start capturing media is determined. having a first appearance and having a second difference value from the orientation of the electronic device at the time to start capturing media according to the orientation of the electronic device at the first time having the A visual guide is displayed having a second appearance different from the first appearance according to the orientation of the electronic device. By providing visual guidance only when predetermined conditions are met, the user can quickly recognize when the electronic device has moved from its original position when media capture is initiated. and the user can use the same framing when capturing multiple images so that the maximum number of images is available and can be easily combined to form a usable or improved merge photo. can be maintained. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように電子デバイスが構成されているときに満たされる基準を更に含む(例えば、図26J~図26Q)。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスに、インジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)を構成させる。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、キャプチャ持続時間が閾値キャプチャ持続時間を超える場合、いつ電子デバイスがその元の位置から動いたかを、バッテリ寿命を無駄にすることなく、及び視覚ガイダンスが必要ない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the set of guidance criteria further includes criteria met when the electronic device is configured to capture multiple images over a first capture duration that exceeds the threshold duration ( For example, FIGS. 26J-26Q). In some embodiments, the control (eg, slider) for adjusting the capture duration for capturing media includes a first capture duration indication (eg, slider bar). A control causes the electronic device to configure a duration (eg, a first capture duration) corresponding to the duration of the indication. By providing visual guidance only when predetermined conditions are met, the user is informed when the electronic device has moved from its original position if the capture duration exceeds the threshold capture duration, and the battery life. and without causing visual distraction in situations where visual guidance is not needed (e.g., by providing visual guidance when these conditions are not met). can. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)(例えば、第1のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す。いくつかの実施形態では、第1の1組の1つ以上の形状は、メディアキャプチャユーザインタフェース上の第1の位置に表示される。いくつかの実施形態では、第2の1組の1つ以上の形状(例えば、2670c)(例えば、第2のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズを表す。いくつかの実施形態では、第2の1組の1つ以上の形状は、第2の位置に表示される。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、メディアキャプチャユーザインタフェース上の第1の位置とは異なるディスプレイ上の第2の位置(例えば、オフセット位置)。 In some embodiments, a first set of one or more shapes (e.g., 2670b) (e.g., first box, cross, circle/ellipse, one or more lines) is the starting point for media capture. represents the pose of the electronic device when In some embodiments, the first set of one or more shapes is displayed at a first location on the media capture user interface. In some embodiments, a second set of one or more shapes (eg, 2670c) (eg, a second box, cross, circle/ellipse, one or more lines) initiates media capture. represents a pose of the electronic device at a first time after the . In some embodiments, the second set of one or more shapes is displayed at the second location. In some embodiments, when there is a difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at a first time after media capture is initiated, media A second position on the display that is different from the first position on the capture user interface (eg, an offset position).

いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)は、第1の色(例えば、第1の色)を含む。いくつかの実施形態では、第2の1組の1つ以上の(例えば、2670c)は、第1の色とは異なる第2の色(例えば、第2の色)を含む。いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の1組の1つ以上の形状とは異なる視覚外観(例えば、より太い、より高い不透明度、異なる勾配、よりぼけた、又は画像に適用され得る別のタイプの視覚効果)を有する。キャプチャを開始したときの電子デバイスのポーズを反映する1組の形状及びキャプチャを開始した後の電子デバイスのポーズを反映する別の1組の形状を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first set of one or more shapes (eg, 2670b) includes a first color (eg, a first color). In some embodiments, the second set of one or more (eg, 2670c) includes a second color (eg, a second color) different from the first color. In some embodiments, the first set of one or more shapes has a different visual appearance than the second set of one or more shapes (e.g., thicker, higher opacity, different gradient, Blurry or another type of visual effect that can be applied to the image). By displaying visual guidance that includes a set of shapes that reflect the pose of the electronic device when capture is initiated and another set of shapes that reflect the pose of the electronic device after capture is initiated, the user can: Relational changes in the pose of the electronic device can be quickly identified, thereby requiring the user to recapture the image in order to capture a usable picture due to constant movement of the device. The user can quickly correct the pose to improve media capture (as may not be the case). By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の色を含まず、及び/又は第2の1組の1つ以上の形状は、第1の色を含まない。キャプチャを開始したときの電子デバイスのポーズを反映する色及びキャプチャを開始した後の電子デバイスのポーズを反映する異なる色を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first set of one or more shapes does not include the second color and/or the second set of one or more shapes does not include the first color. No. By displaying visual guidance that includes a color that reflects the pose of the electronic device when the capture is initiated and a different color that reflects the pose of the electronic device after the capture is initiated, the user can see the relationship of the pose of the electronic device. changes can be identified quickly, so that the user may not need to recapture the image in order to capture a usable photo due to constant movement of the device. ) users can quickly correct poses to improve media capture. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化(例えば、図26K~図26O)を検出する(2812)。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、電子デバイスは、メディアキャプチャユーザインタフェース上の第2の位置とは異なるメディアキャプチャユーザインタフェース上の第3の位置に第2の1組の1つ以上の形状(例えば、図26L~図260の2670c)(又は第1の1組の1つ以上の形状)を表示する(2814)。いくつかの実施形態では、第1の1組の1つ以上の形状の表示は、カメラユーザインタフェース上の同一の位置で維持される。1つ以上の形状の視覚特性を更新することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにどのように関連するかを迅速に識別することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, at a second time after initiating capture, the electronic device detects a change in pose of the electronic device (eg, FIGS. 26K-26O) (2812). In some embodiments, in response to detecting a change in pose of the electronic device, the electronic device moves to a third position on the media capture user interface that is different than the second position on the media capture user interface. A set of 2 one or more shapes (eg, 2670c in FIGS. 26L-260) (or a first set of one or more shapes) is displayed (2814). In some embodiments, the representation of the first set of one or more shapes is maintained at the same position on the camera user interface. By updating the visual properties of one or more shapes, the user can quickly identify how the current pose of the electronic device relates to the original pose of the electronic device. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるとの判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つをやめ(例えば、図26Oの2670b)、第1の1組の1つ以上の形状の第1の位置と第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にないとの判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状の表示を維持する(例えば、図26Nの2670b~c)。いくつかの実施形態では、キャプチャを開始した後の第1の時間における電子デバイスのポーズが、メディアのキャプチャが開始されたときに電子デバイスのポーズに対して所定の近接性内にあるとき、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つは、表示を停止される。所定の条件が満たされているときにのみ、1組の1つ以上の形状のうちの少なくとも1つの表示を自動的に停止することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first position of the first set of one or more shapes and the second set of one or more shapes in response to detecting a change in pose of the electronic device. and the third position of the electronic device is within the first threshold difference, the electronic device performs the first set of one or more shapes or the second set of one or more shapes (e.g., 2670b in FIG. 26O), the first position of the first set of one or more shapes and the third position of the second set of one or more shapes. The electronic device displays the first set of one or more shapes or the second set of one or more shapes, according to the determination that the difference between the positions of the (eg, 2670b-c in FIG. 26N). In some embodiments, when the pose of the electronic device at a first time after initiating capture is within a predetermined proximity to the pose of the electronic device when media capture is initiated, the second At least one of the first set of one or more shapes or the second set of one or more shapes is deactivated. By automatically ceasing display of at least one of the set of one or more shapes only when a predetermined condition is met, the user is informed that the current pose of the electronic device is the original pose of the electronic device. pose can be quickly recognized. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化を検出する。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応じて、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、電子デバイスは、触知出力(例えば、2620a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を生成し、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にないとの判定に従って、電子デバイスは、触知出力を生成することをやめる。所定の条件が満たされているときにのみ、触知出力を提供することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at a second time after starting the capture, the electronic device detects a change in pose of the electronic device. In some embodiments, in response to detecting a change in pose of the electronic device, the pose of the electronic device when media capture is initiated and the electronic device at a second time after media capture is initiated. Upon determining that the difference between the pose of the device is within the second threshold difference, the electronic device generates a tactile output (e.g., 2620a) (e.g., with one or more tactile output generators). tactile (e.g., vibration) output) and the difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at a second time after media capture is initiated is not within the second threshold difference, the electronic device ceases to generate tactile output. By providing tactile output only when predetermined conditions are met, a user can quickly recognize that the current pose of the electronic device is in the original pose of the electronic device. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1組のガイダンス基準が満たされているとの判定に従って、かつメディアをキャプチャしている間に、電子デバイスは、電子デバイスを安定化させる(例えば、電子デバイスの現在のポーズを維持する)要求に対応する表現(例えば、命令2670a)を表示する(例えば、1組の特性又はシンボル(例えば、「一時停止」)を表示する)。電子デバイスを安定化させる命令を含む視覚ガイダンスを提供することにより、ユーザは、デバイスがメディアをキャプチャしていることを迅速に認識できる視覚的フィードバックを提供し、かつデバイスが一時停止しなければならないメディアのキャプチャを最適化するために、ユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the electronic device stabilizes the electronic device (e.g., the electronic device's current display a representation (eg, instruction 2670a) corresponding to the request to maintain a pause (eg, display a set of properties or symbols (eg, "pause")). By providing visual guidance that includes instructions to stabilize the electronic device, the user should provide visual feedback quickly recognizing that the device is capturing media, and the device should pause. To optimize media capture, users can combine multiple images so that the maximum number of images is available and can be easily combined to form usable or improved merge photos. The same framing can be maintained as when capturing. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、1組のガイダンス基準が満たされていないとの判定に従って、電子デバイスは、表示デバイスを介して、差の視覚インジケーション(例えば、視覚ガイダンス2670)を表示することをやめる。 In some embodiments, the electronic device ceases to display a visual indication of the difference (eg, visual guidance 2670) via the display device upon determining that the set of guidance criteria has not been met. .

いくつかの実施形態では、視覚インジケーションは、第1の時間で表示される。いくつかの実施形態では、第1の時間とは異なる第3の時間において、電子デバイスは、メディアのキャプチャの終了を検出する。いくつかの実施形態では、メディアのキャプチャの終了を検出したことに応じて、電子デバイスは、表示デバイスを介して、視覚インジケーション(例えば、視覚ガイダンス2670)を表示することをやめる(例えば、図26Q~図26R)。キャプチャ持続時間が終了したときにガイダンスを表示することを停止することにより、ユーザは、メディアのキャプチャが終了し、かつメディアのキャプチャを改善するために、電子デバイスのポーズを維持する必要がもはやないことを、迅速に認識することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments the visual indication is displayed for the first time. In some embodiments, at a third time different than the first time, the electronic device detects the end of media capture. In some embodiments, in response to detecting the end of media capture, the electronic device ceases to display visual indications (eg, visual guidance 2670) via the display device (eg, FIG. 26Q-FIG. 26R). By stopping displaying the guidance when the capture duration has expired, the user no longer needs to maintain a pose of the electronic device to improve the media capture and media capture. can be quickly recognized. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

方法2800に関して上述された処理(例えば、図28A~図28B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、3000、3200、3400、3600、3800、4000、及び4200は、方法2800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700は、任意選択的に、方法2800に関連して上述した様々な技術を使用して、低光モードで画像をキャプチャしている間に、視覚ガイダンスを表示することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 28A-28B) described above with respect to method 2800 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 3000, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 2800. Optionally includes one or more of the characteristics of various methods. For example, method 2700 optionally employs displaying visual guidance while capturing images in low-light mode using various techniques described above in connection with method 2800 . For the sake of brevity, these details are not repeated below.

図29A~図29Pは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図30A~図30Cにおける処理を含む、以下で説明する処理を例示するために使用される。 29A-29P illustrate exemplary user interfaces for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 30A-30C.

図29A~図29Jは、1つ以上のカメラの視野内の1つ以上のオブジェクトに特定の距離で焦点を合わせる間にライブプレビュー630を表示するためのユーザインタフェースを示す。理解を向上させるために、図29A~図29Jは、電子デバイス600の花2986と木2988との間の空間的関係を示すシーン2980のグラフィック表現を含む。例えば、図29Aにおいて、シーン2980は、デバイス600の側面プロファイルを含み、ここで、デバイス600の裏側は、木2988の前に位置する花2986を含む環境に面している。デバイス600の裏側は、広い視野を有するカメラと、狭い視野を有するカメラとを含み、これらは、以下の図29A~図29Pを説明するとき、総称して「後カメラ」と呼ばれる。デバイス600が1×ズームレベルでメディアをキャプチャするように構成されるため(例えば、選択されている1×ズームアフォーダンス2622bによって示されるように)、デバイス600の裏側の1組のカメラで(例えば、前カメラとは対照的に)、デバイス600は、広い視野を有するカメラ及び狭い視野を有するカメラを使用してメディアをキャプチャするように現在構成されている。それにより、花2986及び/又は木2988のうちの少なくとも一部分は、広いカメラ(WFOV)の視野内にあり、花2986及び/又は木2988のうちの少なくとも一部分は、狭いカメラ(NFOV)の視野内にある。図29Aにおいて、デバイス600は、花2986から距離2982a内及び木2988から距離2984a内である。 Figures 29A-29J illustrate a user interface for displaying a live preview 630 while focusing at a particular distance on one or more objects within the field of view of one or more cameras. To improve understanding, FIGS. 29A-29J include graphic representations of scene 2980 showing the spatial relationship between flower 2986 and tree 2988 of electronic device 600. FIG. For example, in FIG. 29A, scene 2980 includes a side profile of device 600 , where the back side of device 600 faces an environment including flowers 2986 positioned in front of tree 2988 . The back side of device 600 includes a wide field-of-view camera and a narrow field-of-view camera, collectively referred to as the "rear camera" when discussing FIGS. 29A-29P below. Because device 600 is configured to capture media at the 1× zoom level (eg, as indicated by 1× zoom affordance 2622b being selected), a set of cameras on the back of device 600 (eg, Device 600 is currently configured to capture media using a camera with a wide field of view and a camera with a narrow field of view (as opposed to a front camera). Thereby, at least a portion of the flowers 2986 and/or trees 2988 are within the field of view of the wide camera (WFOV) and at least a portion of the flowers 2986 and/or the trees 2988 are within the field of view of the narrow camera (NFOV). It is in. In FIG. 29A, device 600 is within distance 2982a from flower 2986 and within distance 2984a from tree 2988. In FIG.

図29Aに示すように、デバイス600は、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する。ライブプレビュー630は、後カメラ(FOV)の視野(例えば、WFOV及びNFOV)内で検出された画像に基づく。ライブプレビュー630は、木2988の前に位置する花2986を示す表現を含む(シーン2980に関連して上述したように)。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in Figure 29A, the device 600 displays a camera user interface including a live preview 630 extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected within the field of view (eg, WFOV and NFOV) of the rear camera (FOV). Live preview 630 includes a representation showing flowers 2986 positioned in front of tree 2988 (as described above with respect to scene 2980). In some embodiments, live preview 630 does not extend to the top and/or bottom of device 600 .

図29Aに示すように、図29Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。インジケータ領域602及びコントロール領域606にライブプレビュー630の一部分を表示するために、デバイス600は、WFOV内にあるシーン2980の一部分(例えば、花2986及び木2988)を使用する。更には、図29Aのカメラユーザインタフェースはまた、カメラディスプレイ領域604を含み、これは、ライブプレビュー630上に重ね合わされ、領域602及び606とは対照的に、インジケータ又はコントロールと実質的に重ね合わされない。カメラディスプレイ領域604の部分を表示するために、デバイス600は、NFOV内にあるシーン2980の一部分を使用する。 As shown in FIG. 29A, the camera user interface of FIG. 29A includes indicator region 602 and control region 606, which are overlaid on live preview 630 such that the indicators and controls can be displayed simultaneously with live preview 630. be. To display a portion of live preview 630 in indicator region 602 and control region 606, device 600 uses a portion of scene 2980 (eg, flowers 2986 and trees 2988) that are within the WFOV. Additionally, the camera user interface of FIG. 29A also includes a camera display area 604, which overlays the live preview 630 and, in contrast to areas 602 and 606, does not substantially overlay indicators or controls. To display the portion of camera display area 604, device 600 uses the portion of scene 2980 that is within the NFOV.

図29Aに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移において、インジケータ領域602とカメラディスプレイ領域604との間に視覚境界部608が表示される。インジケータ領域602は、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b~602fはまた、インジケータ領域602に含まれる。 As shown in FIG. 29A, indicator area 602 includes a gray overlay and camera display area 604 does not include a gray overlay. A visual border 608 is displayed between the indicator area 602 and the camera display area 604 at the color transition between the indicator area 602 and the camera display area 604 . Indicator area 602 includes flash indicator 602a, which indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). In some embodiments, other indicators (eg, indicators 602b-602f) are also included in indicator region 602.

図29Aに示すように、コントロール領域606はまた、灰色オーバーレイを含み、これらの領域間の色の遷移において、コントロール領域606とカメラディスプレイ領域604との間に視覚境界部608が表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で示された「Photo」モード)を示し、ユーザがカメラモードを変更することを可能にする。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。 As shown in FIG. 29A, the control area 606 also includes a gray overlay and a visual border 608 is displayed between the control area 606 and the camera display area 604 at the color transitions between these areas. Control area 606 includes camera mode affordance 620 , a portion of media collection 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected (eg, "Photo" mode shown in bold) and allows the user to change camera modes. In some embodiments, visual boundary 608 is displayed as a solid or dashed line between regions 602, 604, and 608. FIG.

図29B~図29Eは、別のオブジェクト(例えば、木2988)よりもFOV内で近いオブジェクト(例えば、花2986)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Aでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された花2986の部分に対応する位置)でのタップジェスチャ2950aを検出する。 Figures 29B-29E show a user interface displaying a live preview 630 while focusing on an object (eg, flower 2986) that is closer in the FOV than another object (eg, tree 2988). In FIG. 29A, device 600 detects tap gesture 2950a at a position corresponding to a position in camera display area 604 (eg, a position corresponding to the portion of flower 2986 displayed within camera display area 604).

図29Bに示すように、タップジェスチャ2950aを検出したことに応じて、デバイス600は、タップジェスチャ2950aに対応する位置で、花2986の部分の周りに焦点インジケータ2936aを表示する。更に、タップジェスチャ2950aを検出したことに応じて、デバイス600は、(例えば、図14N~図14Oの入力1495G及び図14P~図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが焦点インジケータ2936aに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、後カメラが現在、花2986に焦点を合わせているため、図29Aにおいて以前に表示されたものよりもぼかしが少ない(例えば、太線で示される)花2986を表示する。更なる理解のために、図29Bにおいて、シーン2980はまた、デバイス600が花2986の部分に現在焦点を合わせていることを示すための現在の焦点インジケータボックス2990を含む。図29Bでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 As shown in FIG. 29B, in response to detecting tap gesture 2950a, device 600 displays focus indicator 2936a around portion of flower 2986 at a location corresponding to tap gesture 2950a. Further, in response to detecting tap gesture 2950a, device 600 may (eg, perform techniques similar to those described above with respect to input 1495G of FIGS. 14N-14O and input portion 1495H1 of FIGS. 14P-14Q). Use ) to change the focus setting so that the rear camera focuses on the portion of flower 2986 surrounded by focus indicator 2936a. After device 600 changes the focus setting of the rear camera, device 600 displays less blur than previously displayed in FIG. 29A (e.g., thick line ) to display the flower 2986 . For further understanding, in FIG. 29B scene 2980 also includes a current focus indicator box 2990 to indicate that device 600 is currently focused on portion of flower 2986 . In FIG. 29B, device 600 detects a change in distance between device 600 and flower 2986 (eg, an object in focus), where device 600 and flower 2986 move closer together. there is

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、インジケータ領域602及びコントロール領域606(「外側部分」)内におけるライブプレビュー630の一部分の視覚プロミネンスを減少させ、一方、カメラディスプレイ領域604(「内側部分」)内に表示されたライブプレビュー630の一部分の視覚プロミネンスを維持する。ここで、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離2982bが距離の第1の範囲内にあるため、外側部分のプロミネンスを減少させる。具体的には、デバイス600は、外側部分が、それらの視覚プロミネンスを減少させるために、より暗く表示されるように、領域602及び606の不透明度を増加させる。いくつかの実施形態では、デバイス600は、輝度、色彩度、及び/又はコントラストを減少させることによって、外側部分の視覚プロミネンスを減少させる。いくつかの実施形態では、視覚プロミネンスを減少させることは、図29Aに表示された外側部分の状態から図29B(又は視覚プロミネンスが減少している任意の他の図)に表示された外側部分の状態へと外側部分を漸進的に退色させることを含む。いくつかの実施形態では、視覚プロミネンスを減少させることは、領域602及び/又は606の不透明度を漸進的に減少させることを含む。 As shown in FIG. 29C, in response to detecting a change in the distance between device 600 and flower 2986, device 600 displays a portion of live preview 630 within indicator region 602 and control region 606 (“outer portion”). Reduce the visual prominence while maintaining the visual prominence of the portion of the live preview 630 displayed within the camera display area 604 (the "inner portion"). Here, the device 600 reduces the prominence of the outer portion because the distance 2982b between the device 600 and the flower 2986 (eg, the object in focus) is within the first range of distances. Specifically, device 600 increases the opacity of regions 602 and 606 so that the outer portions appear darker to reduce their visual prominence. In some embodiments, device 600 reduces visual prominence in the outer portion by reducing brightness, color saturation, and/or contrast. In some embodiments, decreasing the visual prominence may change the state of the outer portion displayed in FIG. 29A from the state of the outer portion displayed in FIG. Including gradual fading of the outer portion to the state. In some embodiments, reducing visual prominence includes progressively reducing the opacity of regions 602 and/or 606 .

図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、ライブプレビュー630を更新する。ライブプレビュー630を更新するときに、デバイス600は、WFOVに基づいて外側一部分を更新し(例えば、広いカメラの視野を使用して、上述のように、領域602及び606内のライブプレビュー630の一部分を表示するため)、NFOVに基づいて外側一部分を更新する(例えば、狭いカメラの視野を使用して、上述のように、カメラディスプレイ領域604内のライブプレビュー630の一部分を表示するため)。特に、サイズ(例えば、幅)が異なる視野を有するカメラでライブプレビュー630の異なる領域を更新することにより、デバイス600に、デバイス600が花2986から距離2982bだけ離れている(例えば、又は距離の第1の範囲内にある)場合、視覚境界部608に沿った視覚的引裂きを有するライブプレビュー630を表示させる。すなわち、デバイス600は、デバイス600が花2986から距離2982bだけ離れている場合、内側部分に対してシフトされているように外側部分を表示する。図29Cに示すように、コントロール領域606内に表示された花2986の茎部は、カメラディスプレイ領域604内の花2986の茎部の右にシフトされる。更には、インジケータ領域602内に表示された花2986の花弁のうちのいくつかは、カメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされる。図29Cにおいて、デバイス600は、外側部分の視覚プロミネンスを減少させ、これは、外側領域に対するカメラディスプレイ領域の相対的視覚プロミネンスを増加させる(例えば、視覚的引裂きを顕著に低下させる)。 In response to detecting a change in the distance between device 600 and flower 2986, device 600 updates live preview 630, as shown in FIG. 29C. When updating live preview 630, device 600 updates the outer portion based on the WFOV (e.g., using the wide camera field of view, the portion of live preview 630 within regions 602 and 606 as described above). ) and update the outer portion based on the NFOV (eg, to display a portion of the live preview 630 within the camera display area 604, as described above, using a narrow camera field of view). In particular, by updating different regions of live preview 630 with cameras having fields of view of different sizes (e.g., widths), device 600 is told that device 600 is a distance 2982b away from flower 2986 (e.g., or a third of the distance). 1), then display the live preview 630 with visual tearing along the visual boundary 608 . That is, device 600 displays the outer portion as being shifted with respect to the inner portion when device 600 is a distance 2982b away from flower 2986 . The stem of flower 2986 displayed in control area 606 is shifted to the right of the stem of flower 2986 in camera display area 604, as shown in FIG. 29C. Additionally, some of the petals of flower 2986 displayed in indicator area 602 are shifted to the right of the same petals of flower 2986 in camera display area 604 . In FIG. 29C, the device 600 reduces the visual prominence of the outer portion, which increases the relative visual prominence of the camera display area to the outer area (eg, significantly reduces visual tearing).

図29Aに戻ると、デバイス600が花2986から2982bよりも大きい特定の距離だけ離れているとき、デバイス600が1×ズームレベルでメディアをキャプチャするように構成されている間に、視覚的引裂きが実質的にない(例えば、まったく若しくは小さい)又は視覚的引裂きの機会がより少ないため、デバイス600は、外側部分の視覚プロミネンスを減少させない。図29Cでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。 Returning to FIG. 29A, when device 600 is separated from flower 2986 by a certain distance greater than 2982b, visual tearing occurs while device 600 is configured to capture media at a 1× zoom level. Device 600 does not reduce the visual prominence of the outer portion because there is substantially no (eg no or less) or less chance of visual tearing. In FIG. 29C, device 600 detects a change in distance between device 600 and flower 2986 (eg, an object in focus), where device 600 and flower 2986 are moving closer together. there is

図29Dに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、デバイス600と花2986との間の距離2982cが距離の第2の範囲内にあるため、外側部分の視覚プロミネンスを更に減少させ、一方、内側部分の視覚プロミネンスを維持する。ここで、距離の第2の範囲は、図29Cに関連して述べられた距離の第1の範囲よりも小さい。図29Dにおいて、デバイス600は、外側部分を不明瞭にする(例えば、退色させる、又はブラックアウトする)ことによって、外側部分の視覚プロミネンスを減少させる。具体的には、デバイス600は、外側部分が区別可能ではないようにインジケータ領域602及びコントロール領域606の不透明度レベルを増加させており、領域602及び606内に表示されたライブプレビュー630の一部分は、黒であるように見え、図29Cに以前に表示されたライブプレビュー630のいくらかの一部分(例えば、花2986の茎部)が表示されることを停止される。いくつかの実施形態では、デバイス600が花2986から距離2982cだけ離れている(例えば、又は距離の第2の範囲内にある)場合、デバイス600は、実際の視覚的引裂き又は視覚的引裂きの可能性が極端であると判定した。したがって、いくつかの実施形態では、デバイス600は、デバイス600が視覚的引裂き又は視覚的引裂きの変化が極端であると判定したときに、距離に基づいて外側部分を表示することを停止する。図29Dでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに更に離れて動いている(例えば、図29Aに示すように、距離2982aに戻る)。 As shown in FIG. 29D, in response to detecting a change in the distance between device 600 and flower 2986, device 600 determines that distance 2982c between device 600 and flower 2986 is within a second range of distances. Therefore, the visual prominence of the outer portion is further reduced while maintaining the visual prominence of the inner portion. Here, the second range of distances is less than the first range of distances discussed in connection with FIG. 29C. In FIG. 29D, the device 600 reduces the visual prominence of the outer portion by obscuring (eg, fading or blacking out) the outer portion. Specifically, device 600 has increased the opacity level of indicator region 602 and control region 606 so that the outer portions are not distinguishable, and the portion of live preview 630 displayed within regions 602 and 606 is , appears black, and some portions of the live preview 630 previously displayed in FIG. 29C (eg, stems of flowers 2986) cease to be displayed. In some embodiments, when device 600 is a distance 2982c away from flower 2986 (eg, or within a second range of distances), device 600 may be subject to actual visual tearing or potential visual tearing. judged to be of extreme sex. Accordingly, in some embodiments, device 600 stops displaying outer portions based on distance when device 600 determines that visual tearing or changes in visual tearing are extreme. In FIG. 29D, device 600 detects a change in distance between device 600 and flower 2986 (eg, the object in focus), where device 600 and flower 2986 move further away from each other. (eg, back to distance 2982a, as shown in FIG. 29A).

図29Eに示すように、デバイス600と花2986との距離の変化を検出したことに応じて、デバイス600は、花2986から距離2982aだけ離れているため、外側部分の視覚プロミネンスを増加させる。換言すれば、図29Eにおいて、デバイス600は、図29Bに関連して論じられるように、距離2982aが距離の第1又は第2の範囲内でないため、図29B及び図29Cに表示された、視覚プロミネンスを有する外側部分を表示することをやめる。特に、図29Fでは、デバイス600は、実質的に視覚的引裂きがないライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、距離2982aが、実際の視覚的引裂きがないか又は視覚的引裂きの機会がほとんどない距離の第3の範囲内であると判定している。いくつかの実施形態では、デバイス600は、距離2982aが、距離の第3の範囲内であると判定し、視覚プロミネンスを最大視覚プロミネンスまで増加させる。 As shown in FIG. 29E, in response to detecting a change in the distance between device 600 and flower 2986, device 600 increases the visual prominence of the outer portion since it is a distance 2982a away from flower 2986. FIG. In other words, in FIG. 29E, the device 600 is not in the visual range 2982a displayed in FIGS. Stop displaying the outer parts with prominences. In particular, in FIG. 29F, device 600 displays live preview 630 with substantially no visual tearing. In some embodiments, device 600 has determined that distance 2982a is within a third range of distances where there is no actual visual tearing or little chance of visual tearing. In some embodiments, device 600 determines that distance 2982a is within a third range of distances and increases visual prominence to maximum visual prominence.

図29E~図29Iは、別のオブジェクト(例えば、花2986)よりもデバイス600からもっと遠く離れているオブジェクト(例えば、木2988)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Eでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された木2988の部分に対応する位置)でのタップジェスチャ2950eを検出する。 29E-29I show a user interface displaying a live preview 630 while focusing on an object (eg, tree 2988) that is farther away from device 600 than another object (eg, flower 2986). indicate. In FIG. 29E, device 600 detects tap gesture 2950e at a position corresponding to a position in camera display area 604 (eg, a position corresponding to the portion of tree 2988 displayed within camera display area 604).

図29Fに示すように、タップジェスチャ2950eを検出したことに応じて、デバイス600は、タップジェスチャ2950eに対応するカメラディスプレイ領域604上の位置で、木2988の一部分の周りに焦点インジケータ2936bを表示する。更に、タップジェスチャ2950eを検出したことに応じて、デバイス600は、(図14N~図14Oの入力1495G及び図14P~図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが花2986の部分の焦点から、焦点インジケータ2936bに取り囲まれた木2988の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、図29Eにおいて以前に表示されたものよりも、ぼかしが少ない(例えば、太線で示される)木2988及びぼかしが多い(例えば、点線で示される)花を表示する。図29Fでは、シーン2980は、デバイス600が木2988の部分に現在焦点が合っているため、木2988の周りに現在の焦点インジケータボックス2990を示す。図29Fでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29F, in response to detecting tap gesture 2950e, device 600 displays focus indicator 2936b around a portion of tree 2988 at a location on camera display area 604 corresponding to tap gesture 2950e. . Further, in response to detecting tap gesture 2950e, device 600 uses techniques similar to those described above with respect to input 1495G of FIGS. 14N-14O and input portion 1495H1 of FIGS. and ) change the focus setting so that the rear camera is focused from the portion of the flower 2986 to the portion of the tree 2988 surrounded by the focus indicator 2936b. After the device 600 changes the rear camera focus setting, the device 600 displays a less blurred tree 2988 (e.g., shown in bold line) and more blur (e.g., dotted line) than previously displayed in FIG. 29E. ) to display flowers. In FIG. 29F, scene 2980 shows current focus indicator box 2990 around tree 2988 because device 600 is currently focused on a portion of tree 2988 . In FIG. 29F, device 600 detects a change in distance between device 600 and tree 2988 (eg, an object in focus), where device 600 and tree 2988 move closer together. there is

図29Gに示すように、デバイス600と木2988との間の距離の変化を検出したことに応じて、デバイス600は、デバイス600と木2988との間の距離2984bが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982bとは対照的に)、外側部分の視覚プロミネンスを減少させることをやめる。換言すれば、デバイス600が、距離2984b(及び距離2982bではない)が閾値距離の第1の範囲内であることに基づいて判定を行うことにより、デバイス600は、外側部分の視覚プロミネンスを変更しない。更には、視覚プロミネンスを変更しないことによって、領域602及び606が暗色化されていないため、視覚境界部608での視覚的引裂きは、図29Bよりも図29Gにおいてより明らかである。具体的には、デバイス600は、ライブプレビュー630の任意の部分の視覚プロミネンスを減少させることなく、カメラディスプレイ領域604内の花2986の茎部の右にシフトされたコントロール領域606の花2986の茎部、及びカメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされたインジケータ領域602内に表示された花2986の花弁のうちのいくつかを表示する。図29Gでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。 As shown in FIG. 29G, in response to detecting a change in distance between device 600 and tree 2988, device 600 determines that distance 2984b between device 600 and tree 2988 is within a first range of distances. (as opposed to distance 2982b, eg, in connection with FIG. 29C), we stop reducing the visual prominence of the outer portion. In other words, device 600 makes a determination based on distance 2984b (and not distance 2982b) being within the first range of threshold distances so that device 600 does not change the visual prominence of the outer portion. . Furthermore, visual tearing at visual border 608 is more evident in FIG. 29G than in FIG. 29B because regions 602 and 606 are not darkened by not altering the visual prominence. Specifically, the device 600 displays the stems of the flowers 2986 in the control area 606 shifted to the right of the stems of the flowers 2986 in the camera display area 604 without reducing the visual prominence of any portion of the live preview 630 . and some of the petals of flower 2986 displayed in indicator area 602 shifted to the right of the same petals of flower 2986 in camera display area 604 . In FIG. 29G, device 600 detects a change in distance between device 600 and tree 2988 (eg, an object in focus), where device 600 and tree 2988 are moving closer together. there is

図29Hに示すように、デバイス600と木2988との間の距離の変化を検出したことに応じて、デバイス600は、デバイス600と木2988との間の距離2984cが、距離の第1の範囲内にないため(例えば、図29Cに関連して、距離2982cとは対照的に)、外側部分の視覚プロミネンスを減少させることをやめる。デバイス600がライブプレビュー630の任意の部分の視覚プロミネンスを減少させていないため、デバイス600は、外側部分が内側部分の右に更にシフトされる図29Gよりも、視覚境界部608で視覚的引裂きをより多く表示する。図29Hでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ2950hを検出する。 As shown in FIG. 29H, in response to detecting a change in distance between device 600 and tree 2988, device 600 determines that distance 2984c between device 600 and tree 2988 is a first range of distances. (as opposed to distance 2982c, eg, in connection with FIG. 29C), we stop reducing the visual prominence of the outer portion. Since the device 600 has not reduced the visual prominence of any portion of the live preview 630, the device 600 exhibits more visual tearing at the visual boundary 608 than in FIG. 29G where the outer portion is shifted further to the right of the inner portion. Show more. 29H, device 600 detects tap gesture 2950h at a location corresponding to shutter affordance 610. In FIG.

図29Iに示すように、タップジェスチャ2950hを検出したことに応じて、デバイス600は、図29Hに表示されるように視覚境界部608での視覚的引裂きを含む、ライブプレビュー630の現在の状態に基づいて、メディアをキャプチャする(図8Q~図8Rに関連して論じられたのと同様の技術を使用して)。更に、タップジェスチャ2950hを検出したことに応じて、デバイス600は、新たにキャプチャされたメディアの表現で更新されたメディアコレクション624を更新する。図29Iでは、デバイス600は、インジケータ領域602に対応する位置でのタップジェスチャ2950iを検出する。 As shown in FIG. 29I, in response to detecting tap gesture 2950h, device 600 transitions to the current state of live preview 630, including visual tearing at visual border 608 as displayed in FIG. 29H. Based on this, media is captured (using techniques similar to those discussed in connection with FIGS. 8Q-8R). Further, in response to detecting tap gesture 2950h, device 600 updates updated media collection 624 with a representation of the newly captured media. 29I, device 600 detects tap gesture 2950i at a location corresponding to indicator region 602. In FIG.

図29Iに示すように、タップジェスチャ2950iを検出したことに応じて、デバイス600は、(例えば、ジェスチャ2950b及び2950fとは対照的に)タップジェスチャ2950iがカメラディスプレイ領域604の外側の位置に向けられているため、焦点設定を変更又は焦点インジケータを表示することをやめる。図29Iにおいて、タップジェスチャ2950iを検出したことに応じて、デバイス600は、カメラユーザインタフェースを維持し、電子デバイスは、カメラユーザインタフェースの部分を更新することをやめる(例えば、カメラユーザインタフェースは同じままである)。図29Iでは、デバイス600は、カメラディスプレイ領域604における位置に対応する位置(例えば、カメラディスプレイ領域604内に表示された花2986の部分に対応する位置)でのタップジェスチャ2950jを検出する。 As shown in FIG. 29I, in response to detecting tap gesture 2950i, device 600 directs tap gesture 2950i to a position outside camera display area 604 (as opposed to, for example, gestures 2950b and 2950f). Therefore, do not change the focus setting or display the focus indicator. In FIG. 29I, in response to detecting tap gesture 2950i, device 600 maintains the camera user interface and the electronic device ceases updating portions of the camera user interface (eg, the camera user interface remains the same). is). In FIG. 29I, device 600 detects tap gesture 2950j at a position corresponding to a position in camera display area 604 (eg, a position corresponding to the portion of flower 2986 displayed within camera display area 604).

図29Kに示すように、タップジェスチャ2950jを検出したことに応じて、デバイス600は、タップジェスチャ2950jに対応するカメラディスプレイ領域604上の位置で、花2986の部分の周りに焦点インジケータ2936cを表示する。更に、タップジェスチャ2950jを検出したことに応じて、デバイス600は、(図29A~図29Bにおいて上述したものと同様の技術を使用して、)後カメラが木2988の部分の焦点から、焦点インジケータ2936cに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が、木2988の部分の代わりに花2986の部分に焦点を合わせているため、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離が距離の第3の範囲内にあるため、外側部分の視覚プロミネンスを減少させる。ここで、デバイス600が焦点を当てていたオブジェクトに切り替えたため、どの距離(例えば、距離2982c又は距離2984c)で外側部分の視覚プロミネンスを減少させるか(又はあるいは、増加させる)かどうかをトリガする判定を変更する。これにより、デバイス600は、デバイス600と花2986との間の距離2982c(又は、デバイス600と木2988との間の距離2984c)が距離の第3の範囲内にあるとの判定を行い、その判定に従って、図29Cに関連して上述したように、外側部分の視覚プロミネンスを減少させる(例えば、外側部分を表示することを停止する)。理解を助けるために、図29Kでは、シーン2980は、デバイス600が花2986の部分に現在焦点が合っているため、花2986の周りに現在の焦点インジケータボックス2990を示す。 As shown in FIG. 29K, in response to detecting tap gesture 2950j, device 600 displays focus indicator 2936c around portion of flower 2986 at the location on camera display area 604 corresponding to tap gesture 2950j. . Further, in response to detecting tap gesture 2950j, device 600 moves the rear camera out of focus on portion of tree 2988 (using techniques similar to those described above in FIGS. 29A-29B) to focus indicator 2950j. Change focus settings to focus on the portion of flower 2986 surrounded by 2936c. Because the device 600 is focused on the flower 2986 portion instead of the tree 2988 portion, the device 600 will be able to see that the distance between the device 600 and the flower 2986 (eg, the object in focus) is the distance. Being within the third range reduces the visual prominence of the outer portion. Now, because the device 600 has switched to the object it was focusing on, a decision triggers at which distance (e.g., distance 2982c or distance 2984c) to decrease (or, alternatively, increase) the visual prominence of the outer portion. to change Thereby, the device 600 determines that the distance 2982c between the device 600 and the flower 2986 (or the distance 2984c between the device 600 and the tree 2988) is within the third distance range, and According to the determination, the visual prominence of the outer portion is reduced (eg, the outer portion is stopped being displayed), as described above with respect to FIG. 29C. To aid understanding, in FIG. 29K scene 2980 shows a current focus indicator box 2990 around flower 2986 because device 600 is currently focused on a portion of flower 2986 .

図29Lに戻る前に、図29A~図29Kは、特定のシナリオに基づいて視覚プロミネンスを増加又は減少させるかどうかに基づく技術を説明する。いくつかの実施形態では、図29A~図29Kの説明は、反転され(例えば、図29K~図29A)、スキップされ、再順序付けされてもよい(例えば、これにより、例えば、デバイス600は、上記の説明において視覚プロミネンスを減少させる視覚プロミネンスを増加させることができ、又は逆もまた同様である)。更には、図29A~図29Kにおいて、デバイス600は、デバイス600と、焦点が合っているオブジェクトとの間の距離が閾値内又は閾値の外側であるかどうかに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、他の基準に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、オブジェクトに焦点が合っているかどうかに加えて、又はその代わりに、それぞれのオブジェクトとの所定の関係状態(例えば、オブジェクトが最も近い又は最も遠いオブジェクトであるかどうか)に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600は、デバイス600を使用して、ライブプレビュー630を表示しているタイプのカメラに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600、デバイス600は、視覚的引裂きが1つ以上の環境条件(例えば、デバイス600とオブジェクトとの間の距離、照明条件など)に基づいて(例えば、視覚境界部608で)発生する可能性の判定に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更することをやめる)。いくつかの実施形態では、デバイス600が同じサイズ視野(単数又は複数)を有する1つ以上のカメラ(単数又は複数)のみを使用する(例えば、望遠写真カメラのみを使用する)場合、デバイス600は、カメラの視野(単数又は複数)内のオブジェクトとデバイス600との間の距離にかかわらず、ライブプレビュー630の一部分の視覚プロミネンスをやめる。図29Kでは、デバイス600は、メディアコレクション624に対応する位置でのタップジェスチャ2950kを検出する。 Before returning to Figure 29L, Figures 29A-29K describe techniques based on whether to increase or decrease visual prominences based on a particular scenario. In some embodiments, the descriptions of FIGS. 29A-29K may be reversed (eg, FIGS. 29K-29A), skipped, and reordered (eg, so that, for example, device 600 can increase visual prominence or vice versa). Further, in FIGS. 29A-29K, the device 600 selects a portion of the live preview 630 based on whether the distance between the device 600 and the object in focus is within or outside the threshold. Change (or stop changing) the visual prominence. In some embodiments, device 600 changes (or ceases to change) the visual prominence of portions of live preview 630 based on other criteria. In some embodiments, in addition to or instead of whether the object is in focus, the device 600 determines a predetermined relationship state with each object (e.g., the object is the closest or farthest object). ), change (or stop changing) the visual prominence of a portion of the live preview 630 . In some embodiments, device 600 changes (or may change) the visual prominence of a portion of live preview 630 based on the type of camera that is using device 600 to display live preview 630 . stop). In some embodiments, the device 600, the device 600 has visual tearing based on one or more environmental conditions (e.g., distance between the device 600 and an object, lighting conditions, etc.) (e.g., visual boundary 608) change (or stop changing) the visual prominence of the portion of the live preview 630 based on the determination of the likelihood of occurrence. In some embodiments, if device 600 uses only one or more camera(s) with the same size field(s) of view (e.g., uses only a telephoto camera), device 600 , discontinues visual prominence of a portion of the live preview 630 regardless of the distance between the device 600 and objects within the field(s) of the camera's field of view. 29K, device 600 detects tap gesture 2950k at a location corresponding to media collection 624. In FIG.

図29L~図29Pは、デバイス600がキャプチャし、かつ視覚的引裂きが発生したが、メディアを編集するための追加のコンテンツ(例えば、図29Hの領域602及び606内に表示されたライブプレビュー630の一部分)を使用するために利用可能であることを示すメディアを編集するユーザインタフェースを示す。図29Lに示すように、タップジェスチャ2950kを検出したことに応じて、デバイス600は、カメラユーザインタフェースの表示を、写真ビューワインタフェースの表示に置き換える。メディア閲覧インタフェースは、表現2930を含み、これは、図29Hのタップジェスチャ2950hを検出したことに応じて、キャプチャされたメディアの表現である。更には、メディアビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを送信するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。図29Lでは、デバイス600は、編集アフォーダンス644aに対応する位置でのタップジェスチャ2950lを検出する。 Figures 29L-29P show that the device 600 has captured and visual tearing has occurred, but additional content for editing the media (e.g., the live preview 630 displayed in areas 602 and 606 of Figure 29H). 1 shows a user interface for editing media indicating that it is available for use (part). As shown in FIG. 29L, in response to detecting tap gesture 2950k, device 600 replaces display of the camera user interface with display of the photo viewer interface. The media viewing interface includes a representation 2930, which is a representation of media captured in response to detecting tap gesture 2950h of FIG. 29H. Additionally, the media viewer user interface provides an edit affordance 644a for editing media, a send affordance 644b for sending captured media, and a favorite affordance 644c for marking captured media as favorite media. , a trash affordance 644d to delete the captured media, and a return affordance 644e to return to the live preview 630 display. In FIG. 29L, device 600 detects tap gesture 2950l at a location corresponding to editing affordance 644a.

図29Mに示すように、タップジェスチャ2950lを検出したことに応じて、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(図22A~図22B及び図24Aのものと同様の技術を使用して)。メディア編集ユーザインタフェースは、表現2930及び画像コンテンツ編集アフォーダンス2210dを含む。図29Mでは、デバイス600は、画像コンテンツ編集アフォーダンス2210dに対応する位置でのタップジェスチャ2950mを検出する。 As shown in FIG. 29M, in response to detecting tap gesture 2950l, device 600 replaces the media viewer user interface with a media editing user interface (using techniques similar to those of FIGS. 22A-22B and 24A). Use). The media editing user interface includes representation 2930 and image content editing affordances 2210d. In FIG. 29M, device 600 detects tap gesture 2950m at a location corresponding to image content editing affordance 2210d.

図29Nに示すように、タップジェスチャ2950mを検出したことに応じて、デバイス600は、デバイス600の上部付近にアスペクト比コントロールアフォーダンス626cを表示する。図29Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する位置でのタップジェスチャ2950nを(24J~24Oに記載されるものと同様のものを使用して)検出する。 In response to detecting tap gesture 2950m, device 600 displays aspect ratio control affordance 626c near the top of device 600, as shown in FIG. 29N. In FIG. 29N, device 600 detects tap gesture 2950n (using similar to those described in 24J-24O) at a location corresponding to aspect ratio control affordance 626c.

図29Oに示すように、タップジェスチャ2950nを検出したことに応じて、デバイス600は、表現2930上に視覚境界部608を表示する。図29Oでは、デバイス600は、表現2930上のピンチングジェスチャ2950oを検出する。 In response to detecting tap gesture 2950n, device 600 displays visual border 608 on representation 2930, as shown in FIG. 29O. 29O, device 600 detects pinching gesture 2950o on representation 2930. In FIG.

図29Pに示すように、ピンチングジェスチャ2950oを検出したことに応じて、デバイス600は、ライブプレビュー630のインジケータ領域602及びコントロール領域606内に表示された、図29Hにおいてキャプチャされたメディアの部分を表示するように、表現2930を更新する。ここで、図29Hのライブプレビュー630とは対照的に、デバイス600は、図29Pにおいて表現2930に実質的に視覚的引裂きがないように、領域602、604、606内のライブプレビュー630の一部分を一緒にステッチした。いくつかの実施形態では、デバイス600は、ブラックアウトしている外側部分をキャプチャし(例えば、29D)、外側部分を内側部分にステッチして、視覚的引裂きがほとんど又はまったくないメディアの表現(領域602、604、606内のライブプレビュー630)を表示することができる。いくつかの実施形態では、デバイス600は、要求(例えば、ピンチングジェスチャ2950o)が受信されない限り、ステッチされた表現を表示することをやめ、代わりに、ステッチされていないキャプチャされたメディアの表現を表示する(例えば、図29Lの表現2930、29Hのカメラディスプレイ領域604内に表示されたライブプレビュー630の一部分の表現によって示されるように)。 29P, in response to detecting pinching gesture 2950o, device 600 displays the portion of the media captured in FIG. 29H displayed within indicator region 602 and control region 606 of live preview 630. Update expression 2930 so that Here, in contrast to live preview 630 of FIG. 29H, device 600 cuts portions of live preview 630 within regions 602, 604, 606 such that there is substantially no visual tearing in representation 2930 in FIG. 29P. stitched together. In some embodiments, the device 600 captures the blacked out outer portion (e.g., 29D) and stitches the outer portion to the inner portion to represent the media with little or no visual tearing (area A live preview 630 in 602, 604, 606) can be displayed. In some embodiments, device 600 ceases displaying the stitched representation unless a request (eg, pinching gesture 2950o) is received, and instead displays an unstitched captured media representation. (eg, as shown by representation 2930 in FIG. 29L, a representation of a portion of live preview 630 displayed within camera display area 604 in 29H).

図30A~図30Cは、いくつかの実施形態による、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。方法3000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 30A-30C are flow diagrams illustrating methods for managing controlled media capture using an electronic device with multiple cameras, according to some embodiments. Method 3000 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 3000 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法3000は、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための直感的な仕方を提供する。この方法は、複数のカメラを有する電子デバイスを使用してメディアのキャプチャを管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3000 provides an intuitive way to manage controlled media capture using an electronic device with multiple cameras. This method reduces the cognitive burden on the user in managing media capture using an electronic device with multiple cameras, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to capture media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)の1つ以上のカメラ(例えば、第1のカメラ及び第2のカメラ(例えば、第2のカメラは第1のカメラよりも広い視野を有する))(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェース、そのカメラユーザインタフェースを表示する(3002)。カメラユーザは、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)であって、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)(例えば、第1のカメラ)の視野の第1の部分(例えば、第1のカメラの視野の第1の部分)の第1の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含む第1の領域と(3004)、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域(例えば、602及び/又は606)(例えば、カメラコントロール領域)と、を含む。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 The electronic device (e.g., 600) includes a display device (e.g., touch sensitive display) and one or more cameras (e.g., one or more cameras (e.g., A first camera and a second camera (eg, the second camera has a wider field of view than the first camera)) (eg, dual camera, triple camera, quad camera, etc.))). The electronic device displays (3002) the camera user interface, the camera user interface, via the display device. A camera user is a first region (eg, 604) (eg, a camera display region) that is visible to one or more cameras (eg, an open observable area, a given distance from the camera lens). horizontal (or vertical or diagonal) length of the image of (e.g. the first camera) a first representation (e.g. , representation overtime, a live preview feed of data from the camera) (3004), and a second region (3004) outside the first region and visually distinct from the first region ( 602 and/or 606) (eg, camera control areas). By displaying a second region that is visually distinct from the first region, content that is the main content that is captured and used to display the media and additional content that can be captured to display the media. Provide a feed to the user and allow the user to frame the media to keep things in/out of different areas when capturing the media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第1の距離(例えば、2982b)であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Cの602)で表示する(3008)ことを含む(3006)。所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更には、これは、デバイスがキャプチャされた画像を補正するために実行するコンピュータ集約的なステッチ動作をデバイスが実行する可能性を低減し、したがって、これは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 A second region is a first respective object (e.g., 2986) within the field of view of one or more cameras (e.g., observable objects detected, objects in focus, objects of one or more cameras). object in the focal plane) is at a first distance (e.g., 2982b) from the one or more cameras, according to a determination that a first respective set of criteria are met; , the electronic device includes displaying (3008) a second portion of the field of view of the one or more cameras in a second region in a first visual appearance (eg, 602 in FIG. 29C) (3006). . By selecting to display a portion of the field of view within a second region based on when a predetermined condition is met or not met, the electronic device controls the field of view of one or more cameras of the electronic device. is determined to be likely to cause visual tearing when rendered on a camera user interface of the electronic device, so as to reduce the prominence of the second region and/or one of the electronic device Optimized to increase the prominence of the second region when it is determined that more than one camera field of view is unlikely to cause visual tearing when rendered on the camera user interface A user interface can be provided. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Furthermore, this reduces the likelihood that the device will perform the computer-intensive stitching operations it performs to correct the captured image, thus allowing the user to use the device more quickly and efficiently. reduce power usage and improve device battery life by allowing Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第2の距離(例えば、2982a)であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Bの602)で表示することをやめる(3010)ことを含む。所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 A second region may be a first respective object within the field of view of one or more cameras (e.g., observable objects detected, objects in focus, objects in the focal plane of one or more cameras). ) is a second distance (e.g., 2982a) from the one or more cameras, upon determining that a second set of respective criteria are met, the electronic device: Ceasing 3010 to display a second portion of the field of view of the one or more cameras in the second region in the first visual appearance (eg, 602 in FIG. 29B). By selecting to display a portion of the field of view within a second region based on when a predetermined condition is met or not met, the electronic device controls the field of view of one or more cameras of the electronic device. is determined to be likely to cause visual tearing when rendered on a camera user interface of the electronic device, so as to reduce the prominence of the second region and/or one of the electronic device Optimized to increase the prominence of the second region when it is determined that more than one camera field of view is unlikely to cause visual tearing when rendered on the camera user interface A user interface can be provided. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2の領域は、複数のカメラ設定(例えば、620)(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second area controls multiple camera settings (e.g., 620) (e.g., flash, timer, filter effects, f-number, aspect ratio, live photo, etc.) (e.g., camera mode ) (e.g. taking a picture) (e.g. activating different cameras (e.g. front to back)) multiple control affordances (e.g. selectable user interface objects) (e.g. proactive control affordances, shutter affordance, camera selection affordance, multiple camera mode affordance).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される(3012)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子デバイスは、電子デバイスの焦点設定を調整する第1の要求(例えば、2950a)を受信する(3014)。いくつかの実施形態では、電子デバイスの焦点設定を調整する第1の要求(例えば、第1の領域に向けられたジェスチャ(例えば、タップ))を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野内(例えば、2936a)の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する(3016)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に(3018)、かつ1つ以上のカメラの視野内の第2のそれぞれのオブジェクト(例えば、2988)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第3の距離(例えば、2984b)(例えば、第1のそれぞれのオブジェクトから更に離れた1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる(例えば、29Gの602)(3020)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトであるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(又は表示を維持する)。電子デバイスの1つ以上のカメラの焦点が合っているオブジェクトに関して所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured (3012) to focus on a first respective object within the field of view of one or more cameras. In some embodiments, while displaying the second portion of the field of view of the one or more cameras in the first visual appearance, the electronic device makes a first request to adjust the focus setting of the electronic device ( For example, 2950a) is received (3014). In some embodiments, in response to receiving a first request to adjust the focus setting of the electronic device (eg, a gesture directed at the first region (eg, tap)), the electronic device performs one The electronic device is configured (3016) to focus on a second respective object within the field of view (eg, 2936a) of the one or more cameras. In some embodiments, while the electronic device is configured to focus on a second respective object within the field of view of the one or more cameras (3018), and within the field of view of the one or more cameras second respective objects (e.g., 2988) (e.g., detected observable objects, in-focus objects, objects in the focal planes of one or more cameras) from one or more cameras to the second A set of third respective criteria, including criteria that are met when a distance of 3 (e.g., 2984b) (e.g., distances from one or more cameras further away from the first respective object) are Upon determining that it is satisfied, the electronic device ceases to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance (eg, 602 of 29G). ) (3020). In some embodiments, upon determining that a set of third respective criteria are not met, including criteria met when a second respective object within the field of view of one or more cameras. , the electronic device displays (or maintains display of) a second portion of the field of view of the one or more cameras in a second region in a first visual appearance. Selecting to display a portion of the field of view within the second region based on when a predetermined condition is met or not met for an object in focus of one or more cameras of the electronic device. The electronic device performs a second to reduce the prominence of the region and/or when the field of view of one or more cameras of the electronic device is determined not likely to cause visual tearing when rendered on the camera user interface; An optimized user interface can be provided to increase the prominence of the second region. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に(例えば、図29Cの602)、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)と1つ以上のカメラとの間の距離の第1の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の増加)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第1の変化を検出したことに応じて、かつ1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離(例えば、2982c)であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる(例えば、図29Dの602)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を、第1の視覚外観よりも視覚的に目立たない第3の視覚外観で表示する(例えば、表示を維持する)。電子デバイスとオブジェクトと間の距離に基づく所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a second portion of the field of view of one or more cameras in a first visual appearance (eg, 602 in FIG. 29C), the electronic device A first change in distance between a first respective object (e.g., 2986) in the field of view of and one or more cameras (e.g., a first change in distance when the first respective object is in focus). increase). In some embodiments, in response to detecting a first change in distance between a first respective object within the field of view of the one or more cameras and the one or more cameras, and one or more A set of fourth respective criteria are met, including criteria met when a first respective object within the field of view of the camera of is a fourth distance (e.g., 2982c) from the one or more cameras. 29D, the electronic device ceases to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance (eg, 602 in FIG. 29D). . In some embodiments, a set of fourth respective criteria including criteria met when the first respective object within the field of view of the one or more cameras is a fourth distance from the one or more cameras. criteria are not met, the electronic device places a second portion of the field of view of the one or more cameras within a second region in a second region that is visually less prominent than the first visual appearance. Display (e.g., maintain display) with a visual appearance of 3. By selecting to display a portion of the field of view within the second region based on when a predetermined condition based on the distance between the electronic device and the object is met or not met, the electronic device: Reducing the prominence of the second region when it is determined that the field of view of the one or more cameras of the electronic device is likely to cause visual tearing when rendered on the camera user interface of the electronic device and/or when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause visual tearing when rendered on the camera user interface. , an optimized user interface can be provided. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることの一部として、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第3の部分の少なくとも一部を表示することを停止する(例えば、図29Dの602)。1つ以上のカメラの視野の一部分を表示することを停止することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of ceasing to display the second portion of the field of view of the one or more cameras within the second region in the first visual appearance, the electronic device comprises the second (eg, 602 in FIG. 29D) of at least a portion of the third portion of the one or more camera's field of view that was not previously displayed in the second region. By ceasing to display a portion of the field of view of the one or more cameras, the electronic device can visually render the field of view of the one or more cameras of the electronic device when rendered on the camera user interface of the electronic device. An optimized user interface can be provided such that the prominence of the second region is reduced when determined to be likely to cause tearing. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめることの一部として、電子デバイスは、第2の領域上に重ね合わされた第1の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を増大させる(例えば、図29Dの602)(例えば、より詳細でない、より少ない色彩度、より低い輝度、及び/又はより小さいコントラストで表示される、より不透明なマスキング/黒化層とともに表示される)(例えば、第2の領域は、第1の領域よりも低い輝度、コントラスト、及び/又は色彩度を有するように見える)。第2の領域上に重ね合わされた、黒化層の不透明度を増加させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of ceasing to display a second portion of the field of view of the one or more cameras within the second region in the first visual appearance, the electronic device (e.g., 602 in FIG. 29D) of the first blackened layer (e.g., simulated blackened layer, simulated masking layer) superimposed on the region of (e.g., in more detail (e.g., the second region is displayed with a more opaque masking/blackening layer that is displayed with less color saturation, lower brightness, and/or less contrast) than the first region. appear to have low brightness, contrast, and/or color saturation). By reducing the visibility by increasing the opacity of the blackening layer superimposed over the second region, the electronic device can be used to reduce the field of view of one or more cameras of the electronic device over the camera user interface of the electronic device. An optimized user interface can be provided such that the prominence of the second region is reduced when it is determined that it may cause visual tearing when rendered in . By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分が第1の視覚外観で表示されていない間に、電子デバイスは、電子デバイスの焦点設定を調整する第2の要求(例えば、2950j)を受信する。いくつかの実施形態では、電子デバイスの焦点設定を調整する第2の要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に、かつ1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる。焦点が合っているオブジェクトに関して所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on a first respective object within the field of view of the one or more cameras. In some embodiments, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the electronic device makes a second request to adjust the focus setting of the electronic device ( For example, 2950j) is received. In some embodiments, in response to receiving a second request to adjust the focus setting of the electronic device, the electronic device focuses on a third respective object within the field of view of the one or more cameras. configure the electronic device to In some embodiments, while the electronic device is configured to focus on a third respective object within the field of view of the one or more cameras, and the third within the field of view of the one or more cameras (e.g., a detected observable object, an in-focus object, an object in the focal plane of one or more cameras) is a fifth distance (e.g., the first distance from one or more cameras closer than the respective object of the set of fifth sets of criteria is satisfied, the electronic device performs Within region 2, a second portion of the field of view of the one or more cameras is displayed in a first visual appearance. In some embodiments, a third respective object in the field of view of one or more cameras (e.g., a detected observable object, an object in focus, a object) is a fifth distance from one or more cameras (e.g., a distance from one or more cameras that is closer than the first respective object). Upon determining that the respective criteria are not met, the electronic device ceases to display the second portion of the field of view of the one or more cameras within the second region with the first visual appearance. By selecting to display a portion of the field of view within the second region based on when a predetermined condition is met or not met with respect to the object in focus, the electronic device to reduce the prominence of the second region when it is determined that the field of view of the one or more cameras is likely to cause visual tearing when rendered on the camera user interface of the electronic device; and/or increasing the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause visual tearing when rendered on the camera user interface. As such, an optimized user interface can be provided. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示されていない間に、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離(例えば、2982c)の第2の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の減少)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第2の変化を検出したことに応じて、かつ1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離(例えば、2982a)であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(例えば、図29E)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされていないとの判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することをやめる。電子デバイスとオブジェクトとの間の距離に基づく所定の条件が満たされている又は満たされていない場合に基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、かつ/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the electronic device controls the first respective field of view of the one or more cameras. A second change in the distance (eg, 2982c) between the object and the one or more cameras (eg, a decrease in distance when the first respective object is in focus). In some embodiments, in response to detecting a second change in distance between a first respective object within the field of view of the one or more cameras and the one or more cameras, and one or more A set of sixth respective criteria are met, including criteria met when a first respective object within the field of view of the camera of is a sixth distance (e.g., 2982a) from the one or more cameras. The electronic device displays a second portion of the field of view of the one or more cameras within the second region in a first visual appearance (eg, FIG. 29E). In some embodiments, a set of sixth respective criteria comprising criteria met when the first respective object within the field of view of the one or more cameras is a sixth distance from the one or more cameras. is not met, the electronic device ceases to display the second portion of the field of view of the one or more cameras in the second region with the first visual appearance. By selecting to display a portion of the field of view within the second region based on when a predetermined condition based on the distance between the electronic device and the object is met or not met, the electronic device , reducing the prominence of the second region when it is determined that the field of view of one or more cameras of the electronic device is likely to cause visual tearing when rendered on the camera user interface of the electronic device. and/or when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause visual tearing when rendered on the camera user interface. An optimized user interface can be provided to increase prominence. This reduces the distraction that visual tearing presents to the user when capturing media, for example allowing the user to spend less time framing and capturing an image. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第4の部分を表示する(例えば、図29Eの602)。追加のコンテンツをユーザに示すことにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 Some embodiments include, as part of displaying a second portion of the field of view of one or more cameras within the second region in the first visual appearance (e.g., the first visual appearance , the previous appearance of the second portion of the field of view is more visually noticeable (e.g., less masking/blacks displayed in greater detail, greater color saturation, greater brightness, and/or greater contrast). )), the electronic device displays in the second region a fourth portion of the field of view of the one or more cameras that was not previously displayed in the second region (e.g., 602 in FIG. 29E). By presenting the additional content to the user, the electronic device determines that the field of view of one or more cameras of the electronic device is unlikely to cause visual tearing when rendered on the electronic device's camera user interface. The optimized user interface can be provided to increase the prominence of the second region when the user is prompted to quickly frame the media using the camera user interface, And the view of more than one camera can be seen when taking the image to provide additional contextual information that can capture the media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示される、より不透明でないマスキング/黒化層とともに表示される)(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示される、より少ないマスキング/黒化層とともに表示される))、電子デバイスは、第2の領域上に重ね合わされた第2の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層))の不透明度を減少させる(例えば、図29Eの602)(例えば、第2の領域は、第1の領域よりも大きい輝度、コントラスト、及び/又は色彩度を有するように見える)。第2の領域上に重ね合わされた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができ、これは、例えば、ユーザがメディアを生成するために実行する必要があるメディアキャプチャの数を低減する、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 Some embodiments include (e.g., in more detail, more displayed with a less opaque masking/darkening layer that is displayed with greater color saturation, greater brightness, and/or greater contrast (e.g., the first visual appearance may appear before the second portion of the field of view). appearance is more visually noticeable (e.g., displayed with less masking/darkening layers, displayed with more detail, greater color saturation, greater brightness, and/or greater contrast), electronic The device reduces the opacity of a second blackening layer (eg, simulated blackening layer, simulated masking layer) superimposed over the second region (eg, 602 in FIG. 29E). ) (eg, the second region appears to have greater brightness, contrast, and/or color saturation than the first region). By reducing the opacity of the blackened layer superimposed over the second region to reduce vision, the electronic device is configured such that the field of view of one or more cameras of the electronic device is projected onto the camera user interface of the electronic device. An optimized user interface can be provided to increase the prominence of the second region when determined not likely to cause visual tearing when rendered, and the user can However, the camera user interface can be used to quickly frame and capture media, which, for example, reduces the number of media captures a user needs to perform to generate media. , more views of one or more cameras can be viewed when the image is captured to provide additional contextual information. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の視覚外観は、第1の視覚プロミネンスを含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、電子デバイスは、1つ以上のカメラの視野の第2の部分を第2の視覚外観から第1の視覚外観に漸進的に遷移させるアニメーションを表示する(例えば、第1の視覚外観を表示する前に第1の視覚外観及び第2の視覚外観とは異なる、異なる外観で表示される)。いくつかの実施形態では、第2の視覚外観は、第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する(例えば、より詳細に/より詳細ではなく、より大きい/より小さい色彩度、より大きい/より低い輝度、及び/又はより大きい/より小さいコントラストで表示される、より不透明でない/より不透明なマスキング/黒化層とともに表示される)。いくつかの実施形態では、第1の視覚外観は、第2の視覚外観とは異なる。第2の領域をある状態の視覚プロミネンスから第2の状態の視覚プロミネンスに漸進的に遷移させるアニメーションを表示することにより、ユーザに、視覚プロミネンスの突然の変化が、カメラユーザインタフェースを使用してメディアをフレーム化及びキャプチャするユーザの能力を中断する、又はメディアをフレーム化及びキャプチャする時間を増加させるユーザアクション(例えば、デバイスを揺さぶる又は動かす)を引き起こし得る、注意散漫の可能性を低減させている間に、視覚的引裂きを低減させたユーザインタフェースを提供する。第2の領域上に重ね合わされた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first visual appearance includes the first visual prominence. In some embodiments, as part of displaying the second portion of the one or more camera's field of view in the first visual appearance, the electronic device controls the one or more camera's second portion of the field of view. from the second visual appearance to the first visual appearance (e.g., different from the first visual appearance and the second visual appearance before displaying the first visual appearance, displayed with a different appearance). In some embodiments, the second visual appearance has a second visual prominence that differs from the first visual prominence (e.g., more/less detail, more/less color saturation, more displayed with a less opaque/more opaque masking/blackening layer displayed with greater/lower brightness and/or greater/less contrast). In some embodiments, the first visual appearance is different than the second visual appearance. By displaying an animation that progressively transitions the second region from one state of visual prominence to a second state of visual prominence, the user is informed that the abrupt change in visual prominence is a visual representation of the media using the camera user interface. reduce the potential for distractions that can interrupt the user's ability to frame and capture media, or cause user actions (e.g., shaking or moving the device) that increase the time to frame and capture media while providing a user interface with reduced visual tearing. By reducing the opacity of the blackened layer superimposed over the second region to reduce vision, the electronic device is configured such that the field of view of one or more cameras of the electronic device is projected onto the camera user interface of the electronic device. An optimized user interface can be provided to increase the prominence of the second region when determined not likely to cause visual tearing when rendered, and the user can However, when taking an image to provide additional contextual information that allows media to be quickly framed and captured using the camera user interface, more than one or more cameras can see the field of view. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の部分は、第1の視覚外観とは異なる第3の視覚外観で表示される(例えば、より大きな/より小さな詳細、色彩度、輝度、及び/又はコントラストで表示される、より少ない/より多くのマスキング/黒化層とともに表示される)。いくつかの実施形態では、第1の部分が第3の視覚外観で表示され、かつ1つ以上のカメラの視野の第2の部分が第1の視覚外観で表示されている間に、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)を受信する。いくつかの実施形態では、第2の部分は、ブラックアウトしており、領域は、ブラックアウトしていない。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディアをキャプチャし、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む。いくつかの実施形態では、1つ以上のカメラの視野に対応するメディアをキャプチャした後に、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、メディアの表現は、第1の視覚外観を有さない。 In some embodiments, the first portion is displayed with a third visual appearance that differs from the first visual appearance (e.g., with greater/lesser detail, color saturation, brightness, and/or contrast). shown with less/more masking/blackening layers shown). In some embodiments, while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance, the electronic device receives a request to capture media (eg, 2950h). In some embodiments, the second portion is blacked out and the region is not blacked out. In some embodiments, in response to receiving a request to capture media, the electronic device captures media corresponding to the fields of view of the one or more cameras, wherein the media corresponds to the fields of view of the one or more cameras. Includes content from a first portion and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing media corresponding to the one or more camera's field of view, the electronic device captures the content from the first portion of the one or more camera's field of view and the one or more camera's field of view. display a media representation (eg, 2930 in FIG. 26P) that includes content from the second portion of . In some embodiments, the media representation does not have a first visual appearance.

いくつかの実施形態では、第2の領域の少なくとも第1の部分(例えば、602)は、第1の領域の上である(例えば、デバイスのカメラにより近い、デバイスの上部により近い)。いくつかの実施形態では、第2の領域の少なくとも第2の部分(例えば、606)は、第2の領域の下である(例えば、デバイスのカメラから更に離れる、デバイスの底部により近い)。 In some embodiments, at least a first portion (eg, 602) of the second region is above the first region (eg, closer to the camera of the device, closer to the top of the device). In some embodiments, at least a second portion (eg, 606) of the second region is below the second region (eg, further away from the camera of the device, closer to the bottom of the device).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の位置での入力を受信する。いくつかの実施形態では、カメラユーザインタフェース上の位置で入力を受信したことに応じて、電子デバイスは、入力(例えば、2950j)の位置が第1の領域(例えば、604)内にあるとの判定に従って、入力(例えば、2936c)の位置に、焦点を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950hi)の位置が第2の領域(例えば、602)内にあるとの判定に従って、入力の位置に、焦点を合わせるように電子デバイスを構成することをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定することをやめる)。 In some embodiments, the electronic device receives input at locations on the camera user interface. In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device determines that the location of the input (eg, 2950j) is within the first region (eg, 604). According to the determination, configure the electronic device to focus (and optionally adjust one or more other camera settings, such as exposure or white balance, to the position of the input (e.g., 2936c) to one or more (set based on the characteristics of the field of view of the camera), and the electronic device focuses on the position of the input (e.g., 2950 hi) according to determining that the position of the input (e.g., 602) is within the second region (e.g., 602) (and optionally setting one or more other camera settings, such as exposure or white balance, based on one or more camera field-of-view characteristics) ).

いくつかの実施形態では、第1の視覚外観で表示されるとき、第2の領域(例えば、602)は、第1の領域(例えば、604)と視覚的に区別される(例えば、第2の領域内の1つ以上のカメラの視野に対応するコンテンツは、退色され、かつ/又は半透明オーバーレイとともに表示され、第1の領域内の1つ以上のカメラの視野に対応するコンテンツは、退色されず、かつ/又は半透明オーバーレイとともに表示されない)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the second region (eg, 602) is visually distinct (eg, the second region) from the first region (eg, 604) when displayed in the first visual appearance. is faded and/or displayed with a translucent overlay, and content corresponding to the one or more camera views within the first region is faded and/or displayed with a translucent overlay. and/or not displayed with a translucent overlay). By displaying a second region that is visually distinct from the first region, content that is the main content that is captured and used to display the media and additional content that can be captured to display the media. Provide a feed to the user and allow the user to frame the media to keep things in/out of different areas when capturing the media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内で識別された最も近いオブジェクトであるときに満たされる基準を更に含む。いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内の焦点の位置にあるときに満たされる基準を更に含む。 In some embodiments, the set of first respective criteria further includes criteria met when the first respective object is the closest identified object within the field of view of the one or more cameras. . In some embodiments, the set of first respective criteria further includes criteria met when the first respective object is at a focal point within the field of view of the one or more cameras.

いくつかの実施形態では、第1の領域は、境界部(例えば、608)によって第2の領域から分離される。いくつかの実施形態では、1組の第1のそれぞれの基準は、視覚的引裂きが検出されたときに満たされる基準を更に含む(例えば、図26H)(例えば、境界部に隣接する(例えば、隣の、上の)スクリーン引裂き(例えば、第1の領域内に表示された表現が第2の領域内に表示された表現と視覚的に同期していない(例えば、視覚アーチファクトの)外観(例えば、単一のオブジェクトが第1の表現を横切って表示され、かつ第2の表現が変更されて見えるように(例えば、第1の表現に表示されたオブジェクトの一部が、第2の表現に表示されたオブジェクトの一部と並んで見えるように)、第2の表現が方向(例えば、右又は左)にシフトするように見える)が視覚的引裂きの閾値レベルを上回る)。 In some embodiments, the first region is separated from the second region by a boundary (eg, 608). In some embodiments, the set of first respective criteria further includes criteria that are met when a visual tear is detected (e.g., FIG. 26H) (e.g., adjacent to a boundary (e.g., Adjacent, above) screen tearing (e.g. appearance of visual artifacts) where the representation displayed in the first region is visually out of sync with the representation displayed in the second region (e.g. , such that a single object is displayed across the first representation and the second representation appears modified (e.g., a portion of the object displayed in the first representation is the second representation appears to shift in a direction (eg, right or left)) above a threshold level of visual tearing).

いくつかの実施形態では、1組の第1のそれぞれの基準は、1つ以上のカメラの視野の第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を更に含み。いくつかの実施形態では、1組の第2のそれぞれの基準は、1つ以上のカメラの視野の第2の部分が第1のカメラとは異なる第2のカメラの視野の一部分であるときに満たされる基準を更に含む(例えば、図31A~図31I、及び図32A~図32Cて記載された方法3200に関連して後述するように)。いくつかの実施形態では、第1のカメラは、第2のタイプの第2のカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ)とは異なる第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))である。 In some embodiments, the set of first respective criteria further includes criteria met when the first portion of the one or more cameras' fields of view is part of the first camera's field of view. In some embodiments, the set of second respective criteria is when the second portion of the field of view of the one or more cameras is a portion of the field of view of a second camera that is different from the first camera. It also includes criteria that are met (eg, as described below in connection with the method 3200 described in FIGS. 31A-31I and 32A-32C). In some embodiments, the first camera is a different first camera than a second camera of a second type (e.g., a camera with different lenses of different widths (e.g., ultra-wide-angle, wide-angle, telephoto cameras). (eg, cameras with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto cameras)).

いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディアを受信するし、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツの少なくとも一部及び1つ以上のカメラの視野の第2の部分からのコンテンツの少なくとも一部を含む、キャプチャされたメディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、第1及び第2のコンテンツの組み合わせを含み、第1の部分からのコンテンツの少なくとも一部の表現及び第2の部分からのコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、表現は、第2の部分(又は第1の部分)のコンテンツの少なくともいくつかの表現を表示することを含まず、メディアアイテムの表現は、第2の部分のコンテンツの少なくとも一部を表示することなく、第2の部分からのコンテンツの少なくとも一部を使用して生成される。 In some embodiments, the electronic receives a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance. In some embodiments, in response to receiving a request to capture media, the electronic device receives media corresponding to one or more camera views, and the media corresponds to one or more camera views. and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing media, the electronic device receives a request (eg, 2950o) to edit the captured media. In some embodiments, in response to receiving a request to edit the captured media, the electronic device renders at least a portion of the content from the first portion of the field of view of the one or more cameras and one or more display a representation of the captured media (eg, 2930 in FIG. 26P) that includes at least a portion of the content from the second portion of the camera's field of view. In some embodiments, the representation of the media item including the content from the portion and the content from the second portion is a corrected version of the representation of the media (e.g., stabilized, horizontal corrected, vertical viewpoint corrected, horizontal viewpoint correction). In some embodiments, a representation of a media item that includes content from the portion and content from the second portion includes a combination of the first and second content and at least a portion of the content from the first portion. and a representation of at least part of the content from the second portion. In some embodiments, the representation does not include displaying a representation of at least some of the content of the second portion (or the first portion), and the representation of the media item is a representation of the content of the second portion. Generated using at least part of the content from the second part without displaying at least part of it.

方法3000に関して上述された処理(例えば、図30A~図30C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3200、3400、3600、3800、4000、及び4200は、方法3000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3000に関連して上述した様々な技術を使用して、カメラユーザインタフェースの様々な領域の視覚プロミネンスを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 30A-30C) described above with respect to method 3000 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3200, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 3000. Optionally includes one or more of the characteristics of various methods. For example, method 3200 optionally employs altering the visual prominence of various regions of the camera user interface using various techniques described above in connection with method 3000 . For the sake of brevity, these details are not repeated below.

図31A~図31Iは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図32A~図32Cにおける処理を含む、以下で説明する処理を例示するために使用される。いくつかの実施形態では、図29A~図29P及び図30A~図30Cで論じられた1つ以上の技術を、以下で論じられた図31A~図31I及び図32A~図32Cの1つ以上の技術と任意選択的に組み合わせてもよい。 31A-31I illustrate exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 32A-32C. In some embodiments, one or more of the techniques discussed in FIGS. 29A-29P and 30A-30C are combined with one or more of the techniques of FIGS. 31A-31I and 32A-32C discussed below. It may optionally be combined with technology.

図31Aは、前側3106aと裏側3106bとを含む電子デバイス600を示す。タッチ感知ディスプレイは、デバイス600の前側3106aに配置され、カメラユーザインタフェースを表示するのに使用される。カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。図31Aのカメラユーザインタフェースはまた、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。 FIG. 31A shows electronic device 600 including front side 3106a and back side 3106b. A touch sensitive display is located on the front side 3106a of device 600 and is used to display the camera user interface. The camera user interface includes indicator area 602 and control area 606 , which are overlaid on live preview 630 such that the indicators and controls can be displayed simultaneously with live preview 630 . Camera display area 604 does not substantially overlap with indicators or controls. In this example, live preview 630 includes a dog on a person's shoulder in the surrounding environment. The camera user interface of FIG. 31A also includes a visual border 608 that indicates the border between the indicator area 602 and the camera display area 604 and the border between the camera display area 604 and the control area 606 .

図31Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 31A, indicator region 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator region 602 includes flash indicator 602a. Flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode).

図31Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 31A, camera display area 604 includes live preview 630 and zoom affordance 2622, which includes 0.5× zoom affordance 2622a, 1× zoom affordance 2622b, and 2× zoom affordance 2622c. . In this example, 0.5x zoom affordance 2622a is selected, indicating that live preview 630 is presented at the 0.5x zoom level.

図31Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 31A, control area 606 overlays live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Control area 606 includes camera mode affordance 620 , a portion of media collection 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes.

図31Aに示すように、ライブプレビュー630は、ディスプレイの上部からディスプレイの底部まで延びる。ライブプレビュー630は、1つ以上のカメラ(例えば、又はカメラセンサ)によって検出されたコンテンツの表現である。いくつかの実施形態では(例えば、特定の条件下では)、デバイス600は、異なる1組の1つ以上のカメラを使用して、異なるズームレベルでライブプレビュー630を表示する。いくつかの実施形態では、あるズームレベルでは、デバイス600は、カメラディスプレイ領域604に表示されるライブプレビュー630の一部分を表示するための第1のカメラ、並びにインジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の一部分を表示するための第2のカメラ(例えば、第1のカメラよりも広い視野(FOV)を有するカメラ)からのコンテンツを使用する。いくつかの実施形態では、デバイス600は、1つだけのカメラからのコンテンツを使用して、ライブプレビュー630の全体を表示する。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。 As shown in Figure 31A, the live preview 630 extends from the top of the display to the bottom of the display. Live preview 630 is a representation of content detected by one or more cameras (eg, or camera sensors). In some embodiments (eg, under certain conditions), device 600 uses different sets of one or more cameras to display live preview 630 at different zoom levels. In some embodiments, at a zoom level, device 600 displays a first camera for displaying a portion of live preview 630 displayed in camera display area 604 and a portion of live preview 630 displayed in indicator area 602 and control area 606 . Using content from a second camera (eg, a camera with a wider field of view (FOV) than the first camera) for displaying a portion of the live preview 630 that is displayed. In some embodiments, the device 600 displays the entire live preview 630 using content from only one camera. In some embodiments, live preview 630 does not extend to the top and/or bottom of device 600 .

特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、図26A~図26Sは、デバイス600の裏側3106bの例示的な表現を含む。デバイス600の裏側3106bは、カメラ3180を含む。カメラ3180の各FOVは、異なる幅(例えば、FOV内に包含される角度の異なる幅)を有し、これは、カメラセンサとレンズとの異なる組み合わせを有する各カメラ3180に起因する。カメラ3180は、超広角カメラ3180a、広角カメラ3180b、及び望遠写真カメラ3180cを含み、これは、最も広いFOVから最も狭いFOVを有する裏側3106bに示される。更には、特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、FOVボックス3182aはまた、デバイス600の前側3106aを包含するように示される。ライブプレビュー630に関するFOVボックス3182aは、カメラディスプレイ領域604(例えば、図31Aの超広角カメラ3180a)内に表示されるライブプレビュー630の一部分を表示するために、デバイス600を使用している、カメラのFOVの一部分を表す。FOVボックス3182aは、縮尺どおりに表示されない。図31Aにおいて、FOVボックス3182aは、超広角カメラ3180aのFOVがカメラディスプレイ領域604、インジケータ領域602、及びコントロール領域606を含む、ライブプレビュー630全体のコンテンツを提供するのに十分である(例えば、十分に広い)ことを示す。対照的に、以下でより詳細に論じられる図31Cにおいて、広角カメラ3180bは、カメラディスプレイ領域604のコンテンツを提供するために使用されているが、広角カメラ3180bのFOVは、FOVボックス3182bによって示されるように、インジケータ領域602及びコントロール領域606全体のコンテンツを提供するのに十分ではない。 26A-26S include exemplary representations of the back side 3106b of device 600 to improve understanding of an exemplary set of cameras contributing to the display of live preview 630 at a particular zoom level. The back side 3106 b of device 600 includes camera 3180 . Each FOV of camera 3180 has a different width (eg, a different width of angles encompassed within the FOV), which is due to each camera 3180 having a different combination of camera sensor and lens. Cameras 3180 include an ultra wide angle camera 3180a, a wide angle camera 3180b, and a telephoto camera 3180c, which is shown on the back side 3106b, which has the widest FOV to the narrowest FOV. Furthermore, FOV box 3182a is also shown encompassing front side 3106a of device 600 to improve understanding of the exemplary set of cameras contributing to the display of live preview 630 at a particular zoom level. FOV box 3182a for live preview 630 is a view of the camera using device 600 to display a portion of live preview 630 that is displayed within camera display area 604 (e.g., ultra-wide-angle camera 3180a in FIG. 31A). Represents a portion of the FOV. FOV box 3182a is not displayed to scale. In FIG. 31A, FOV box 3182a is sufficient (e.g., sufficient) for the FOV of ultra-wide camera 3180a to provide the contents of entire live preview 630, including camera display area 604, indicator area 602, and control area 606. wide). In contrast, in FIG. 31C, discussed in more detail below, wide-angle camera 3180b is used to provide the content of camera display area 604, but the FOV of wide-angle camera 3180b is indicated by FOV box 3182b. As such, it is not sufficient to provide the content of the entire indicator area 602 and control area 606 .

上述のように、デバイス600は、図31Aにおいて0.5×ズームレベルでライブプレビュー630を表示している。0.5×ズームレベルが第1のズーム値範囲内(例えば、1×ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を表示するように、超広角カメラ3180aのみを使用する。図31Aに示すように、FOVボックス3182aは、超広角カメラ3180aのFOVである。更には、FOVボックス3182aは、ライブプレビュー630を包含し、これは、超広角カメラ3180aのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、超広角カメラ3180aを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを示す。ここで、広角カメラ3180aのFOVがライブプレビュー630全体(及び/又は第1のズーム値範囲にある0.5×ズームレベル)を提供するのに十分に大きいため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を提供するように、超広角カメラ3180aのみを使用する。図31Aでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150aを検出する。 As mentioned above, device 600 is displaying live preview 630 at the 0.5x zoom level in Figure 31A. Since the 0.5x zoom level is within the first zoom value range (e.g., less than the 1x zoom level), device 600 may display a portion of live preview 630 in regions 602, 604, and 606. , using only the ultra-wide-angle camera 3180a. As shown in FIG. 31A, FOV box 3182a is the FOV of ultra-wide camera 3180a. Furthermore, FOV box 3182a contains live preview 630, which means that the FOV of ultra-wide camera 3180a includes the entire live preview 630 (eg, the portion of live preview 630 within regions 602, 604, and 606). is large enough (eg, wide enough) for the device 600 to use the ultra-wide-angle camera 3180a. Here, since the FOV of wide-angle camera 3180a is large enough to provide the entire live preview 630 (and/or 0.5× zoom level in the first zoom value range), device 600 can cover areas 602, 604 , and a portion of the live preview 630 in 606, only the ultra-wide camera 3180a is used. 31A, device 600 detects a depinch gesture 3150a at a position corresponding to camera display area 604. In FIG.

図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.5×ズームレベルから0.9×ズームレベルまで変更する(例えば、新たに選択されかつ表示された0.9×ズームアフォーダンス2622dによって示すように)。0.9×ズームレベルが第1のズーム値範囲内(例えば、0.99ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の一部分を表示するように、超広角カメラ3180aのみを使用し続ける。ライブプレビュー630内でズームするとき、デバイス600は、ライブプレビュー630を表示するのに、図31Aで使用されるよりも少ない超広角カメラ3180aのFOVのパーセンテージを使用し、これは、ライブプレビュー630に対してサイズが増加するFOVボックス3182aによって表される(例えば、ライブプレビュー630は、FOVボックス3182のより大きな部分を占有する)。超広角カメラ3180aのFOVのより少ないパーセンテージを使用することによって、デバイス600は、図31Aに適用されたデジタルズーよりも高いデジタルズームを超広角カメラ3180aのFOVに適用している。したがって、いくつかの実施形態では、図31Bのライブプレビュー630は、図31Aのライブプレビュー630よりも画像歪みが大きい。ライブプレビュー630内でのズームに加えて、デバイス600はまた、デピンチジェスチャ3150aを検出したことに応じて、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、更に、選択されているものとして0.5×ズームアフォーダンス2622aを表示することを停止し、かつ選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。図31Bでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150bを検出する。 As shown in FIG. 31B, in response to detecting de-pinch gesture 3150a, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 0.5× zoom level to 0.9× zoom level. (eg, as shown by the newly selected and displayed 0.9× zoom affordance 2622d). Since the 0.9× zoom level is within the first zoom value range (eg, less than 0.99 zoom level), device 600 may display portions of live preview 630 within regions 602 , 604 , and 606 . , continue to use only the ultra-wide-angle camera 3180a. When zooming within live preview 630, device 600 uses a smaller percentage of the FOV of ultra-wide-angle camera 3180a to display live preview 630 than used in FIG. is represented by FOV box 3182a that increases in size (eg, live preview 630 occupies a larger portion of FOV box 3182). By using a smaller percentage of the FOV of ultra-wide-angle camera 3180a, device 600 applies a higher digital zoom to the FOV of ultra-wide-angle camera 3180a than the digital zoom applied in FIG. 31A. Therefore, in some embodiments, the live preview 630 of FIG. 31B has more image distortion than the live preview 630 of FIG. 31A. In addition to zooming within live preview 630, device 600 also replaces display of 0.5x zoom affordance 2622a with display of 0.9x zoom affordance 2622d in response to detecting de-pinch gesture 3150a. . Here, device 600 uses . 0.5× zoom affordance 2622a is replaced with 0.9× zoom affordance 2622d because the 9× zoom level is below the threshold zoom level (eg, 1×) for replacing the zoom affordance. As shown in FIG. 31B, in response to detecting de-pinch gesture 3150a, device 600 also stops displaying 0.5× zoom affordance 2622a as being selected and 0.9x zoom affordance 2622d is displayed as being present to indicate that live preview 630 is displayed at the 0.9x zoom level. 31B, device 600 detects de-pinch gesture 3150b at a position corresponding to camera display area 604. In FIG.

図31Cに示すように、デピンチジェスチャ3150bを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.9×ズームレベルから1×ズームレベルまで変更する(例えば、新たに選択されかつ再表示された1×ズームアフォーダンス2622bによって示すように)。1×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の一部分を表示するように、超広角カメラ3180aのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するように、カメラ広角カメラ3180bのFOVを使用するように切り替える。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のライブプレビュー630の一部分の画像歪みを低減するように、広角カメラ3180bを使用するように切り替える。換言すれば、デバイス600が超広角カメラ3180aを使用してライブプレビュー630全体を表示することができるものの、デバイス600は、デバイス600がまた、より狭いFOVのカメラを使用して歪みがより少なく及び/又は忠実度が増加したライブプレビュー630のカメラディスプレイ領域604を表示する(例えば、より高い光学ズームレベルを有するため、より狭いFOVを有するカメラは、歪みがより少なく及び/又は忠実度が増加した画像を生成することができる)ように、より狭い視野を有するカメラ(例えば、広角カメラ3180b)を使用するように切り替える。図31Cにおいて、デバイス600がライブプレビュー630の一部分を表示するように、広角カメラ3180bを使用するように切り替えたため、FOVボックス3182bは、広角カメラ3180bのFOVを表すように示される。 As shown in FIG. 31C, in response to detecting de-pinch gesture 3150b, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 0.9× zoom level to 1× zoom level. (eg, as shown by the newly selected and redisplayed 1× zoom affordance 2622b). Since the 1x zoom level is within the second zoom value range (e.g., between the 1x zoom level and the 1.89 zoom level), the device 600 can zoom into other regions (e.g., regions 602 and 606). Camera wide-angle camera to display a portion of live preview 630 displayed within camera display area 604 while maintaining use of the FOV of ultra-wide-angle camera 3180a to display a portion of live preview 630. Switch to use 3180b FOV. In some embodiments, device 600 switches to using wide-angle camera 3180b to reduce image distortion of the portion of live preview 630 in camera display area 604. In other words, although the device 600 can use the ultra-wide camera 3180a to display the entire live preview 630, the device 600 also uses a narrower FOV camera with less distortion and /or display the camera display area 604 of the live preview 630 with increased fidelity (e.g., a camera with a narrower FOV because it has a higher optical zoom level has less distortion and/or has increased fidelity) image), switch to use a camera with a narrower field of view (eg, wide-angle camera 3180b). In FIG. 31C, FOV box 3182b is shown representing the FOV of wide-angle camera 3180b because device 600 has switched to use wide-angle camera 3180b to display a portion of live preview 630. FIG.

図31Cに示すように、デバイス600が2つのカメラ(例えば、デバイス600上のそれらの異なる位置による視差を導入する)を使用して、ライブプレビュー630の全体を表示するので、デバイス600は、視覚境界部608で視覚的引裂きを表示する。図31Bに戻ると、デバイス600は、デバイス600が1つだけのカメラを使用して、ライブプレビュー630の全体を表示したので、視覚境界部608で実質的に視覚的引裂きが表示されなかった。図31Cに示すように、デバイス600は、0.5×ズームアフォーダンス2622aを再表示し、かつ0.9×ズームアフォーダンス2622dを表示することを停止する。デバイス600はまた、1×ズームアフォーダンス2622bを表示し、ここで、1×ズームアフォーダンス2622bが、選択されているものとして表示されて、ライブプレビュー630が1×ズームレベルで表示されることを示す。図31Cでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150cを検出する。 As shown in FIG. 31C, device 600 uses two cameras (e.g., introducing parallax due to their different positions on device 600) to display live preview 630 in its entirety, so device 600 is visually A visual tear is indicated at border 608 . Returning to FIG. 31B, device 600 displayed substantially no visual tearing at visual border 608 because device 600 displayed the entirety of live preview 630 using only one camera. As shown in FIG. 31C, device 600 redisplays 0.5× zoom affordance 2622a and stops displaying 0.9× zoom affordance 2622d. Device 600 also displays 1x zoom affordance 2622b, where 1x zoom affordance 2622b is shown as selected to indicate that live preview 630 is displayed at the 1x zoom level. 31C, device 600 detects de-pinch gesture 3150c at a position corresponding to camera display area 604. In FIG.

図31Dに示すように、デピンチジェスチャ3150cを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1×ズームレベルから1.2×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.2×ズームアフォーダンス2622eによって示すように)。1.2×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の一部分を表示するように、カメラディスプレイ領域604及び超広角カメラ3180aのFOV内に表示されたライブプレビュー630の一部分を表示するように、カメラ広角カメラ3180bのFOVを使用し続ける。図31Dにおいて、FOVボックス3182bは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Dに示すように、デバイス600はまた、1×ズームアフォーダンス2622bの表示を、1.2×ズームアフォーダンス2622eの表示に置き換え、ここで、1.2×ズームアフォーダンス2622eが、選択されているものとして表示されて、ライブプレビュー630が1.2×ズームレベルで表示されることを示す。ここで、デバイス600は、1.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にあるため、1×ズームアフォーダンス2622bを置き換える。図31Dでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150dを検出する。 As shown in FIG. 31D, in response to detecting de-pinch gesture 3150c, device 600 zooms into live preview 630 and changes the zoom level of live preview 630 from 1× zoom level to 1.2× zoom level. (eg, as shown by the newly displayed and selected 1.2× zoom affordance 2622e). Since the 1.2x zoom level is within the second zoom value range (e.g., between the 1x zoom level and the 1.89 zoom level), device 600 moves to other regions (e.g., regions 602 and 606). The FOV of camera wide-angle camera 3180b is changed to display a portion of live preview 630 displayed within camera display area 604 and the FOV of ultra-wide-angle camera 3180a to display a portion of live preview 630 displayed within. continue to use. In FIG. 31D, FOV box 3182b has grown but does not encompass the entire live preview 630 (unlike box 3182a of FIG. 31A, for example), which is because the FOV of wide-angle camera 3180b covers the live preview. 630 (eg, including portions of live preview 630 in regions 602, 604, and 606) is not large enough (eg, large enough) for device 600 to use wide-angle camera 3180b not wide). Therefore, device 600 continues to use two cameras to display live preview 630 in its entirety. As shown in FIG. 31D, device 600 also replaces display of 1× zoom affordance 2622b with display of 1.2× zoom affordance 2622e, where 1.2× zoom affordance 2622e is selected. to indicate that the live preview 630 is displayed at a 1.2x zoom level. Here, the device 600 uses a 1× zoom because the 1.2× zoom level is between the range of zoom levels for replacing the zoom affordance (eg, a predetermined range, such as between 1× and 2×). Replaces affordance 2622b. 31D, device 600 detects a de-pinch gesture 3150d at a position corresponding to camera display area 604. In FIG.

図31Eに示すように、デピンチジェスチャ3150eを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.2×ズームレベルから1.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.9×ズームアフォーダンス2622fによって示すように)。1.9×ズームレベルが第3のズーム値範囲内(例えば、1.9×ズームレベルと2×ズームレベルとの間)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、広角カメラ3180bのFOVのみを使用するように切り替える。図31Dに示すように、FOVボックス3182bは、ライブプレビュー630全体を包含するように成長し、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Eに示すように、デバイス600はまた、1.2×ズームアフォーダンス2262dの表示を、選択されているものとして1.9×ズームアフォーダンス2622eの表示に置き換える(例えば、ズームアフォーダンスを置き換えるために、1.9×ズームレベルがズームレベルの範囲内(例えば、1×~2×などの所定の範囲内)であるため))。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに広角カメラ3180bのみを使用しているため、視覚的引裂きが表示されない。図31Eでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150eを検出する。 As shown in FIG. 31E, in response to detecting de-pinch gesture 3150e, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 1.2× zoom level to 1.9× zoom level. (eg, as shown by the newly displayed and selected 1.9× zoom affordance 2622f). Since the 1.9x zoom level is within the third zoom value range (e.g., between the 1.9x zoom level and the 2x zoom level), the device 600 will display the entire live preview 630 (e.g., region 602, 604, and 606) to display the live preview 630) to use only the FOV of the wide-angle camera 3180b. As shown in FIG. 31D, the FOV box 3182b grows to encompass the entire live preview 630, which means that the FOV of wide-angle camera 3180b extends to the entire live preview 630 (eg, within regions 602, 604, and 606). presently shown to be large enough (eg, wide enough) for device 600 to use wide-angle camera 3180b to display (including a portion of live preview 630). Therefore, device 600 displays the entire live preview 630 using only one camera. As shown in FIG. 31E, device 600 also replaces display of 1.2× zoom affordance 2262d with display of 1.9× zoom affordance 2622e as selected (e.g., to replace zoom affordance, 1.9x zoom level is within a range of zoom levels (eg, within a predetermined range such as 1x to 2x)). Furthermore, as shown in FIG. 31E, device 600 does not display visual tearing because device 600 uses only wide-angle camera 3180b to display live preview 630. FIG. 31E, device 600 detects de-pinch gesture 3150e at a position corresponding to camera display area 604. In FIG.

図31Fに示すように、デピンチジェスチャ3150eを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.9×ズームレベルから2×ズームレベルまで変更する(例えば、選択された2×ズームアフォーダンス2622cによって示すように)。2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の一部分を表示するように、広角カメラ3180bのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cのFOVを使用するように切り替える。いくつかの実施形態では、図31Cのカメラの切り替え(例えば、超広角カメラ3180aから広角カメラ3180b)について論じたのと同様の理由で、広角カメラ3180bを使用する代わりに、デバイス600は、カメラディスプレイ領域604を表示するように、望遠写真カメラ3180cのFOVを使用する。更には、図31Cと同様に、デバイス600は、デバイス600が2つのカメラを使用して、ライブプレビュー630の全体を表示するため、視覚境界部608に視覚的引裂きを表示する。図31Fに示すように、デバイス600がライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cを使用するように切り替えたため、FOVボックス3182cは、望遠写真カメラ3180cのFOVを表すように示される。図31Fに示すように、デバイス600はまた、1.9×ズームアフォーダンス2622fの表示を、1×ズームアフォーダンス2622bの表示に置き換え、かつ選択されているものとして2×ズームアフォーダンス2622cを表示する。図31Fでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150fを検出する。 As shown in FIG. 31F, in response to detecting de-pinch gesture 3150e, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 1.9× zoom level to 2× zoom level. (eg, as shown by selected 2× zoom affordance 2622c). Since the 2x zoom level is within the fourth zoom value range (e.g., between the 2x zoom level and the 2.9x zoom level), the device 600 can move within other regions (e.g., regions 602 and 606). telephoto camera to display the portion of live preview 630 displayed within camera display area 604 while maintaining the use of the FOV of wide-angle camera 3180b to display the portion of live preview 630 displayed in camera display area 604. Switch to use 3180c FOV. In some embodiments, for similar reasons discussed for camera switching in FIG. To view region 604, the FOV of telephoto camera 3180c is used. Further, similar to FIG. 31C, device 600 displays a visual tear at visual border 608 as device 600 uses two cameras to display live preview 630 in its entirety. As shown in FIG. 31F, FOV box 3182c is shown representing the FOV of telephoto camera 3180c because device 600 has switched to use telephoto camera 3180c to display a portion of live preview 630. . As shown in FIG. 31F, device 600 also replaces display of 1.9× zoom affordance 2622f with display of 1× zoom affordance 2622b and displays 2× zoom affordance 2622c as selected. 31F, device 600 detects de-pinch gesture 3150f at a location corresponding to camera display area 604. In FIG.

図31Gに示すように、デピンチジェスチャ3150fを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2×ズームレベルから2.2×ズームレベルまで変更する(例えば、選択された2.2×ズームアフォーダンス2622gによって示すように)。2.2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の一部分を表示するように、カメラディスプレイ領域604及び広角カメラ3180bのFOV内に表示されたライブプレビュー630の一部分を表示するように、望遠写真カメラ3180cのFOVを使用し続ける。図31Gにおいて、FOVボックス3182cは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Gに示すように、デバイス600はまた、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを置き換える。図31Gでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150gを検出する。 As shown in FIG. 31G, in response to detecting de-pinch gesture 3150f, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from a 2× zoom level to a 2.2× zoom level. (eg, as shown by the selected 2.2× zoom affordance 2622g). Since the 2.2x zoom level is within the fourth zoom value range (eg, between the 2x zoom level and the 2.9x zoom level), the device 600 may move other regions (eg, regions 602 and 606). ) to display the portion of live preview 630 displayed in camera display area 604 and the FOV of telephoto camera 3180c to display the portion of live preview 630 displayed in the FOV of wide-angle camera 3180b. continue to use. In FIG. 31G, FOV box 3182c has grown but does not encompass the entire live preview 630 (unlike box 3182a of FIG. 31A, for example), which indicates that the FOV of telephoto camera 3180c is not large enough for device 600 (e.g., , is not wide enough). Therefore, device 600 continues to use two cameras to display live preview 630 in its entirety. As shown in FIG. 31G, device 600 also replaces display of 2× zoom affordance 2622c with display of 2.2× zoom affordance 2622g, where 2.2× zoom affordance 2622g is selected. to indicate that the live preview 630 is displayed at a 2.2x zoom level. Here, the device 600 replaces the 2x zoom affordance 2622c because the 2.2x zoom level is above the zoom level to replace the zoom affordance (eg, above 2x). 31G, device 600 detects a depinch gesture 3150g at a location corresponding to camera display area 604. In FIG.

図31Hに示すように、デピンチジェスチャ3150gを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.2×ズームレベルから2.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された2.9×ズームアフォーダンス2622hによって示すように)。2.9×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用して使用するように切り替える。図31Hに示すように、FOVボックス3182cは、ライブプレビュー630全体を包含するように成長し、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の一部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Hに示すように、デバイス600はまた、2.2×ズームアフォーダンス2262gの表示を、選択されているものとして2.9×ズームアフォーダンス2622hの表示に置き換える。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。図31Hでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3150hを検出する。 As shown in FIG. 31H, in response to detecting de-pinch gesture 3150g, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 2.2× zoom level to 2.9× zoom level. (eg, as shown by the newly displayed and selected 2.9× zoom affordance 2622h). Since the 2.9x zoom level is within the fifth zoom value range (e.g., 2.9x zoom level or higher), the device 600 will be able to view the entire live preview 630 (e.g., live images within regions 602, 604, and 606). Preview 630) is switched to use only the FOV of telephoto camera 3180c. As shown in FIG. 31H, the FOV box 3182c grows to encompass the entire live preview 630, which means that the FOV of the telephoto camera 3180c extends to the entire live preview 630 (eg, within regions 602, 604, and 606). is large enough (eg, wide enough) for the device 600 to use the telephoto camera 3180c to display a live preview 630 of the . Therefore, device 600 displays the entire live preview 630 using only one camera. As shown in FIG. 31H, device 600 also replaces display of 2.2× zoom affordance 2262g with display of 2.9× zoom affordance 2622h as selected. Furthermore, as shown in FIG. 31E, device 600 does not display visual tearing because device 600 only uses telephoto camera 3180c to display live preview 630. FIG. 31H, device 600 detects de-pinch gesture 3150h at a location corresponding to camera display area 604. In FIG.

図31Iに示すように、デピンチジェスチャ3150hを検出したことに応じて、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.9×ズームレベルから3×ズームレベルまで変更する(例えば、新たに表示されかつ選択された3×ズームアフォーダンス2622iによって示すように)。3×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用し続ける。いくつかの実施形態では、デバイス600は、図31Iで(又はより高いズームレベル(例えば、10×ズームレベル)で)ライブプレビュー630を表示するように、デジタルズームを使用する。更には、図31Iに示すように、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、デバイス600は、視覚的引裂きを表示しない。 As shown in FIG. 31I, in response to detecting depinch gesture 3150h, device 600 zooms in on live preview 630 and changes the zoom level of live preview 630 from 2.9× zoom level to 3× zoom level. (eg, as illustrated by the newly displayed and selected 3× zoom affordance 2622i). Because the 3x zoom level is within the fifth zoom value range (e.g., 2.9x zoom level or higher), device 600 can zoom in on live preview 630 in its entirety (e.g., live preview 630 within regions 602, 604, and 606). ) to continue to use only the FOV of telephoto camera 3180c. In some embodiments, device 600 uses digital zoom to display live preview 630 in FIG. 31I (or at a higher zoom level (eg, 10× zoom level)). Furthermore, as shown in FIG. 31I, device 600 does not display visual tearing because device 600 only uses telephoto camera 3180c to display live preview 630. FIG.

いくつかの実施形態では、ライブプレビュー630のズームインの代わりに、デバイス600は、図31A~図31Iに関連して上述された説明を反転するように、1つ以上のピンチジェスチャによりライブプレビュー630上でズームアウトする。いくつかの実施形態では、図31A~図31Iに加えて、デバイス600は、図29A~図29Uに関連して上述されたように、1つ以上の技術を使用する。例えば、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29A~図29B、図29E~図29F、図29H~図29I、及び図29J~図29K)、カメラディスプレイ領域604に対応する位置に向けられたジェスチャに対応する位置(又はカメラディスプレイ領域604に対応する位置の外側)に、1つ以上のカメラの焦点を合わせる(又は焦点を合わせることをやめる)ことができる。加えて、又はあるいは、いくつかの実施形態では、デバイス600は、上述したようなものと類似の入力を受信して(例えば、図29L~図29P)、シャッターアフォーダンス610上の入力を受信したことに応じて、ライブプレビュー630に表示されなかったコンテンツを使用する(例えば、又は表示する)ことができる。 In some embodiments, instead of zooming in on live preview 630, device 600 zooms in on live preview 630 with one or more pinch gestures, as reversed above with respect to FIGS. to zoom out. In some embodiments, in addition to FIGS. 31A-31I, device 600 uses one or more techniques as described above in connection with FIGS. 29A-29U. For example, in some embodiments, device 600 receives gestures similar to those described above (eg, FIGS. 29A-29B, 29E-29F, 29H-29I, and 29J). 29K), one or more cameras are focused (or focus stop matching). Additionally or alternatively, in some embodiments, the device 600 received inputs similar to those described above (eg, FIGS. 29L-29P) and received inputs on the shutter affordance 610. , content that was not displayed in live preview 630 may be used (eg, or displayed).

図32A~図32Cは、いくつかの実施形態による、電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。方法3200は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 32A-32C are flow diagrams illustrating methods for displaying a camera user interface at various zoom levels using different cameras of an electronic device, according to some embodiments. Method 3200 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 3200 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法3200は、ズームレベルの変更時にカメラユーザインタフェースを表示するための直感的な仕方を提供する。この方法は、カメラユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にユーザインタフェースのズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 3200 provides an intuitive way to display the camera user interface when changing zoom levels. This method reduces the user's cognitive burden in changing the zoom level of the camera user interface, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to change the zoom level of the user interface more quickly and efficiently.

電子デバイスは、表示デバイス(例えば、タッチ感知ディスプレイ)、視野を有する第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)よりも広い視野を有する第2のカメラ(例えば、超広角カメラ)(例えば、3180a)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を有する。電子デバイスは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する(3202)。カメラユーザインタフェースは、第1のズームレベル(例えば、2622a)(例えば、第2のカメラよりも狭い視野を有するカメラ)で第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の表現(例えば、630)を含む、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)と、第1のズームレベル(例えば、2622a)(例えば、第1のカメラよりも広い視野を有するカメラ)で第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分の表現(例えば、630)を含む、第2の領域(例えば、602及び606)(例えば、カメラコントロール領域)と、を含む。いくつかの実施形態では、第2の領域は、第1の領域と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 The electronic device includes a display device (e.g., a touch-sensitive display), a first camera (e.g., a wide-angle camera) with a field of view (e.g., 3180b) (e.g., on the same side or a different side of the electronic device (e.g., front camera, rear camera) with one or more cameras (e.g., dual camera, triple camera, quad camera, etc.)), a second camera (e.g., wide-angle camera) with a wider field of view than the first camera (e.g., 3180b) Camera (e.g. ultra-wide angle camera) (e.g. 3180a) (e.g. one or more cameras (e.g. dual camera, triple camera, quad camera) on the same side or different sides of the electronic device (e.g. front camera, rear camera) etc.))). The electronic device displays, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level (3202). The camera user interface displays the first camera's field of view (eg, wide-angle camera) (eg, 3180b) at a first zoom level (eg, 2622a) (eg, a camera with a narrower field of view than the second camera). A first region (e.g., 604) (e.g., camera display region) containing a representation of one portion (e.g., 630) and a first zoom level (e.g., 2622a) (e.g., 2622a) than the first camera A second region (e.g., 602 and 606) containing a representation (e.g., 630) of a first portion of a second camera's field of view (e.g., an ultra-wide-angle camera) (e.g., 3180a) with a wide field-of-view camera). ) (eg, the camera control area) and . In some embodiments, the second region is visually distinct from the first region (eg, has a darker appearance) (eg, halfway over the second portion of the field of view of the one or more cameras). with a transparent overlay). In some embodiments, the second region has a darker appearance compared to the first region. In some embodiments, the second region is located above and/or below the first region within the camera user interface.

表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェース(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、3150a、3150b)を受信する(3204)。 A camera user interface including, via a display device, a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level (e.g., a request to change from a first zoom level to a second zoom level). ), the electronic device receives a first request (eg, 3150a, 3150b) to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a second zoom level ( 3204).

1つ以上のカメラの視野の一部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応じて(3206)、電子デバイスは、第1の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の少なくともサブセットを除外する第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、630)を表示し(3208)、第2の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットと重なり合う第2のカメラの視野(超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、630)を表示する(3210)(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第1のカメラの視野の第1の表現からのカットオフ部分は、第2の領域内に表示されない)。いくつかの実施形態では、除外されるサブセットの量は、第2のズームレベルに依存する。いくつかの実施形態では、第2の表現は、第1の表現と同じである。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 (3206) in response to receiving a first request (eg, a request to zoom in on the first user interface) to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a second zoom level. , the electronic device performs at least a subset of a first portion of a first camera's field of view (eg, wide-angle camera) (eg, 3180b) at a second zoom level (eg, 2622d, 2622b) in a first region. display 3208 a representation (eg, 630) of a second portion (eg, 630) of the first camera's field of view (eg, a wide-angle camera) (eg, 3180b) excluding the first camera ( without displaying a representation of a subset of a portion of the first camera's field of view (e.g., wide-angle camera) (e.g., 3180b) excluded from a second portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b); In a second region, at a second zoom level (e.g., 2622d, 2622b), the first camera excluded from a second portion of the first camera's field of view (e.g., wide-angle camera) (e.g., 3180b) display a representation (e.g., 630) of a second portion of a second camera's field of view (e.g., ultra-wide-angle camera) (e.g., 3180a) overlapping a subset of a portion of the field of view (e.g., wide-angle camera) (e.g., 3180b) of (3210) (eg, when the user interface and/or the first representation of the first camera's field of view is zoomed in, the cutoff portion from the first representation of the first camera's field of view may be the second region not displayed in). In some embodiments, the amount of subset excluded depends on the second zoom level. In some embodiments, the second representation is the same as the first representation. By using different cameras of the electronic device to display different portions of the representation when certain conditions are stipulated, the user can see the electronic device when the representation is displayed within a particular zoom value range. An improved representation can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分(例えば、604)は、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分(例えば、602及び606)とは異なる(例えば、第1の部分及び第2の部分は、第2のカメラの利用可能な視野の異なる部分である)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first portion (eg, 604) of the second camera's field of view (eg, ultra-wide angle camera) (eg, 3180a) is the second camera's field of view (eg, ultra-wide angle camera) (eg, 602 and 606) of (eg, 3180a) (eg, the first and second portions are different portions of the second camera's available field of view). By displaying a second region that is visually distinct from the first region, content that is the main content that is captured and used to display the media and additional content that can be captured to display the media. Provide a feed to the user and allow the user to frame the media to keep things in/out of different areas when capturing the media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の領域(例えば、604)において、第2のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、図31Dの630)を表示し、かつ第2の領域(例えば、602及び606)において、第2のズームレベルで、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、図31Dの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベル(例えば、2622f)まで上げる第2の要求(例えば、3150d)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する(3212)。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベルまで上げる第2の要求(例えば、カメラユーザインタフェース上でズームインする要求)を受信したことに応じて、かつ第3のズームレベルが第1のズーム値範囲(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるとの判定に従って(3214)、電子デバイスは、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第3の部分の表現(例えば、図31Eの630)を表示し(3216)、かつ第2の領域(例えば、602及び606)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第4の部分の表現(例えば、図31Eの630)を表示する(3218)。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第3のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応じて、第3のズームレベルが第1のズーム値範囲を下回るとの判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第1の部分の少なくともサブセットを除外する(いくつかの実施形態では、除外されるサブセットの量は、第3のズームレベルに依存する)第1のカメラの視野の第2の部分の表現を表示し、かつ第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第3のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なり合う第2のカメラの視野の第2の部分の表現を表示する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ(例えば、超広角、広角、望遠写真カメラ)及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第3の部分の第1のサブセットの表現を表示することと、第2の領域において、第3のズームレベルで、第1のカメラの視野の第1のカメラの視野第4の部分の第3の部分の第2のサブセットの表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region (eg, 604), at a second zoom level, a representation (eg 31D) and at a second zoom level in a second region (e.g., 602 and 606) of a second camera (e.g., an ultra-wide angle camera) (e.g., 3180a). While displaying a representation of a second portion of (e.g., 630 in FIG. 31D), the electronic device changes the zoom level of a representation of a portion of the field of view of one or more cameras to a third zoom level (e.g., 2622f) (eg, 3150d) (eg, a request to zoom in on the camera user interface) is received (3212). In some embodiments, upon receiving a second request (e.g., a request to zoom in on the camera user interface) to increase the zoom level of a representation of a portion of the field of view of one or more cameras to a third zoom level. accordingly, and the third zoom level is within the first zoom value range (e.g., a zoom value range sufficient for the field of view of the first camera to lie in both the first region and the second region) Upon determining 3214 that there is, the electronic device moves a first camera (e.g., wide-angle camera) (e.g., 3180b) (e.g., FIG. 3180b of 31E), and display (3216) a representation of a third portion of the field of view (eg, 630 of FIG. 31E), and in a second region (eg, 602 and 606) at a third zoom level, a third A representation of a fourth portion of the field of view (e.g., 630 in FIG. 31E) of one camera (e.g., wide-angle camera) (e.g., 3180b) (e.g., wide-angle camera) (e.g., 3180b) (e.g., 3180b in FIG. 31E) is displayed (3218). In some embodiments, electronic The device switches to show representations in both areas using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device selects a camera that displays representations within the first region and a second region. continuing to use another camera to display a representation within the region; e.g., a first request (e.g., a first user in response to receiving a request to zoom in on the interface), and following determining that the third zoom level is below the first range of zoom values, the electronic device zooms in on the first region at a third zoom level. , excluding at least a subset of the first portion of the first camera's field of view (in some embodiments, the amount of the excluded subset depends on the third zoom level) of the first camera's field of view without displaying a representation of the second portion and, in the second region, a representation of a subset of the portion of the first camera's field of view excluded from the second portion of the first camera's field of view; In a second region, at a third zoom level, a second portion of the second camera's field of view overlaps with a subset of the portion of the first camera's field of view excluded from the second portion of the first camera's field of view. Show the representation of the part. In some embodiments, upon determining that the third zoom level is not within the first zoom value range, the electronic device selects some type of camera (e.g., ultra-wide angle , wide-angle, telephoto cameras) and some type of camera that displays a representation in a second area. In some embodiments, upon determining that the third zoom level is not within the first zoom value range, the electronic device adjusts the field of view of the first camera at the third zoom level in the first region. and displaying a representation of a first subset of a third portion of the first camera's field of view in a second region at a third zoom level. Displaying a representation of the second subset of parts 3 and so on. By switching one camera to display a representation when certain conditions are defined, the user can see improved fidelity and visual acuity when the representation is displayed within a certain zoom value range. An improved representation of an electronic device with a tear can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第3の部分の表現(例えば、図31Eの630)を表示し、かつ第2の領域(例えば、602及び606)において、第3のズームレベル(例えば、図31Eの2622f)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第4の部分の表現(例えば、図31Eの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第4のズームレベル(例えば、2622c)まで上げる第3の要求(例えば、3150e)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第4のズームレベルまで上げる第3の要求を受信したことに応じて、かつ第4のズームレベルが第2のズーム値範囲(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるとの判定に従って、電子デバイスは、第1の領域において、第4のズームレベル(例えば、図31Fの2622c)で、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第5の部分の表現(例えば、図31Fの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第5の部分の表現(例えば、図31Fの630)を表示する(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第3のカメラの視野の表現からのカットオフ部分は、第2の領域内に表示されない)。いくつかの実施形態では、第4のズームレベルが第2のズーム値範囲内にない(ズームイン時)(又は依然として第1のズーム値範囲内にある)との判定に従って、電子デバイスは、第1及び第2の領域において、第1のカメラのみを使用し続ける(例えば、第1の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第3の部分の表現を表示すること、及び第2の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第4の部分の表現を表示すること)。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a representation ( 31E), and in a second region (eg, 602 and 606) at a third zoom level (eg, 2622f in FIG. 31E), the field of view of the first camera (eg, wide-angle While displaying a fourth portion representation (e.g., 630 in FIG. 31E) of a camera) (e.g., 3180b), the electronic device adjusts the zoom level of the one or more camera's portion of the view representation to a fourth portion. A third request (eg, 3150e) (eg, a request to zoom in on the camera user interface) is received to increase to a zoom level of 4 (eg, 2622c). In some embodiments, in response to receiving a third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth zoom level, and the fourth zoom level increases to the second (e.g., the zoom value range that the device switches to using the first camera and the third camera (e.g., a telephoto camera can fill the preview area)) Accordingly, the electronic device operates a third camera (e.g., telephoto camera) (e.g., 3180c) (e.g., third camera a third camera (e.g., a telephoto camera having a narrower field of view than the wide-angle camera) that excludes at least a subset of a third portion of the field of view of the third camera (e.g., has a narrower field of view than the first camera, but a higher optical zoom level) ) of the field of view (e.g., 630 of FIG. 31F), and in a second region, the fifth part of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c). at a fourth zoom level in the second region without displaying a representation of a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) excluded from the portion of overlap with a subset of the portion of the field of view of the third camera (eg, telephoto camera) (eg, 3180c) excluded from the fifth portion of the field of view of camera 3 (eg, telephoto camera) (eg, 3180c); Display (e.g., a user interface and/or a When the first representation is zoomed in, the cut-off portion from the representation of the view of the third camera is not displayed in the second region). In some embodiments, upon determining that the fourth zoom level is not within the second range of zoom values (when zoomed in) (or is still within the first range of zoom values), the electronic device performs the first and in the second region, continue to use only the first camera (e.g., in the first region, at the third zoom level, the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b) displaying a representation of a third portion and, in a second region, at a third zoom level, a representation of a fourth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b); display). By using different cameras of the electronic device to display different portions of the representation when certain conditions are stipulated, the user is able to view the image of the electronic device when the representation is displayed within a particular zoom value range. An improved representation can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1の領域において、第4のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野を有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分の表現(図31Gの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、広角カメラ)(例えば、3180b)の視野の第5の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベル(例えば、2622h)まで上げる第4の要求(例えば、3150g)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応じて、かつ第5のズームレベルが第3のズーム値範囲(例えば、第1のズーム値範囲及び第2のズーム値範囲の外側のズーム値範囲)(例えば、第3のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるとの判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現(例えば、図31Hの630)を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現(例えば、図31Hの630)を表示する。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応じて、第5のズームレベルが第3のズーム値範囲内にない(又は下回る)との判定に従って、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、より高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラの視野の第5の部分の表現を表示し、第2の領域において、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第5のズームレベルで、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットと重なり合う第1のカメラの視野の第5の部分の表現を表示する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にない(又は依然として第2のズーム値範囲内にある)との判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラの視野の第6の部分の表現を表示することと、第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, at a fourth zoom level, a third camera in the field of view of a third camera (eg, the third camera has a narrower field of view than the first camera). display a representation (630 in FIG. 31G) of a fifth portion of the field of view of a third camera (e.g., telephoto camera) (e.g., 3180c) excluding at least a subset of the portion; A representation of a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) excluded from the fifth portion of the field of view of camera 3 (e.g., telephoto camera) (e.g., 3180c). A third camera (e.g., telephoto camera) (e.g., 3180c) excluded from a fifth portion of the field of view of a third camera (e.g., telephoto camera) (e.g., 3180c) in a second region at a fourth zoom level without displaying of the field of view of the first camera (e.g., telephoto camera) (e.g., 3180c) (e.g., wide-angle camera) (e.g., 3180b) overlapping a subset of the field of view of the (e.g., telephoto camera) (e.g., 3180c) While displaying the fifth portion representation, the electronic device makes a fourth request (e.g., 2622h) to increase the zoom level of the one or more camera view portion representation to a fifth zoom level (e.g. For example, 3150g) is received. In some embodiments, in response to receiving a fourth request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to a fifth zoom level, and the fifth zoom level increases to the third range of zoom values (eg, a range of zoom values outside the first range of zoom values and the second range of zoom values) (eg, the field of view of the third camera exists in both the first and second regions). 3180c), the electronic device operates a third camera (e.g., telephoto camera) (e.g., 3180c) at a fifth zoom level in the first region. 31H) and in a second region at a fifth zoom level a third camera (e.g., telephoto camera) (e.g., 3180c ) of the seventh portion of the field of view (eg, 630 in FIG. 31H). In some embodiments, electronic The device switches to show representations in both areas using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device selects a camera that displays representations within the first region and a second region. continue to use another camera to display a representation within the region; e.g., in response to receiving a fourth request to increase the zoom level of the representation of a portion of the field of view of one or more cameras to a fifth zoom level. , in the first region at the fifth zoom level, according to a determination that the fifth zoom level is not within (or below) the third zoom value range, the third camera (e.g., the third camera , a representation of a fifth portion of the field of view of a third camera that excludes at least a subset of the third portion of the field of view of the first camera; 2, at a fifth zoom level in the second region without displaying a representation of the subset of the portion of the third camera's field of view that is excluded from the fifth portion of the third camera's field of view. , a representation of a fifth portion of the first camera's field of view overlapping with a subset of the portion of the third camera's field of view excluded from the fifth portion of the third camera's field of view. In some embodiments, upon determining that the fifth zoom level is not within the third zoom value range, the electronic device directs a camera displaying a representation within the first region and a Use some type of camera to display the representation. In some embodiments, upon determining that the fifth zoom level is not within the third range of zoom values (or is still within the second range of zoom values), the electronic device, in the first region: displaying a representation of a sixth portion of the third camera's field of view at a fifth zoom level and a seventh portion of the third camera's field of view at the fifth zoom level in a second region; to display and refrain from expressions of By switching one camera to display a representation when certain conditions are stipulated, the user can see improved fidelity and visual acuity when the representation is displayed within a certain zoom value range. An improved representation of an electronic device with a tear can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第6のズームレベル(例えば、第5のズームレベル未満であるが、第3のズームレベルよりも高いズームレベル)まで下げる(例えば、ズームアウトする)第1の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第6のズームレベルまで下げる(例えば、ズームアウトする)第1の要求を受信したことに応じて、かつ第6のズームレベルが第2の領域内に表示するために第4のズーム値範囲(例えば、第1のズーム値範囲及び第3のズーム値範囲の外側のズーム値範囲)内にあるとの判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくともサブセットを除外する第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なり合う第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示する。いくつかの実施形態では、第4のズーム値範囲は、第2のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続ける。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラの視野の第6の部分の表現を表示し続け、かつ第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示し続ける。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, displaying a representation of a sixth portion of the field of view of a third camera (e.g., telephoto camera) (e.g., 3180c) at a fifth zoom level in the first region; and While displaying a representation of a seventh portion of the field of view of a third camera (e.g., telephoto camera) (e.g., 3180c) at a fifth zoom level in a second region, the electronic device: Reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth zoom level (eg, less than the fifth zoom level but greater than the third zoom level) (eg, zoom out) receive the first request. In some embodiments, in response to receiving a first request to reduce the zoom level of a representation of a portion of the field of view of one or more cameras to a sixth zoom level (eg, zoom out); Determining that a zoom level of 6 is within a fourth range of zoom values (e.g., a range of zoom values outside the first range of zoom values and a third range of zoom values) for display within the second region. Accordingly, the electronic device is in a first region, at a sixth zoom level, with a third camera (e.g., telephoto camera) (e.g., 3180c) (e.g., the third camera is greater than the first camera). an eighth portion of the field of view of a third camera (e.g., a telephoto camera having a narrower field of view than a wide-angle camera) excluding at least a subset of the third portion of the field of view of the third camera (e.g., a telephoto camera having a narrower field of view than the wide-angle camera); and in a second region excluded from the eighth portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) the third camera (e.g., telephoto camera) ) (e.g., 3180c) of a third camera (e.g., telephoto camera) (e.g., 3180c) at a sixth zoom level in a second region without displaying a subset representation of the of the first camera (e.g., wide angle camera) (e.g., 3180b) overlapping a subset of the portion of the field of view of the third camera (e.g., telephoto camera) (e.g., 3180c) excluded from the eighth portion of the field of view; Display a representation of the eighth portion of the field of view. In some embodiments, the fourth range of zoom values is the same as the second range of zoom values. In some embodiments, electronic The device switches to show representations in both areas using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device selects a camera that displays representations within the first region and a second region. Continue to use different cameras that display representations within the region. In some embodiments, upon determining that the sixth zoom level is not within the fourth zoom value range, the electronic device selects some type of camera displaying a representation within the first region and the second region. Using some type of camera that displays a representation within. In some embodiments, upon determining that the sixth zoom level is not within the fourth zoom value range, the electronic device adjusts the field of view of the third camera at the sixth zoom level in the first region. and continues to display a representation of a seventh portion of the field of view of the third camera in a second region at a fifth zoom level. By using different cameras of the electronic device to display different portions of the representation when certain conditions are stipulated, the user can see the electronic device when the representation is displayed within a particular zoom value range. An improved representation can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットの表現を表示することなく、第1の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットと重なり合う第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分の表現を表示し、かつ第2の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくともサブセットを除外する第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベル(例えば、第6のズームレベル未満であるが、第2のズームレベルよりも高いズームレベル)まで下げる(例えば、ズームアウトする)第2の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、ズームアウトする)第2の要求を受信したことに応じて、かつ第7のズームレベルが第5のズーム値範囲(例えば、第2のズーム値範囲及び第4のズーム値範囲の外側のズーム値範囲)(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるとの判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第9の部分の表現を表示し、かつ第2の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第10の部分の表現を表示する。いくつかの実施形態では、第2のズーム値は、第1のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の一部分の表現のズームレベルを第7のズームレベルまで下げる第1の要求(例えば、第1のユーザインタフェース上でズームアウトする要求)を受信したことに応じて、第7のズームレベルが第5のズーム値範囲内にない(例えば、下回る)との判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分の少なくともサブセットを除外する(いくつかの実施形態では、除外されるサブセットの量は、第7のズームレベルに依存する)第3のカメラの視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットと重なり合う第1のカメラの視野の第8の部分の表現を表示する。いくつかの実施形態では、第7のズームレベルが第5のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないとの判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラの視野の第9の部分の表現を表示することと、第2の領域において、第7のズームレベルで、第1のカメラの視野の第10の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, without displaying in the first area a representation of at least a subset of the eighth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b), at a sixth zoom level, a third camera (e.g., telephoto camera) (e.g., 3180c), and in a second region, at a sixth zoom level, an eighth portion of the field of view of the first camera (e.g., wide-angle camera) (e.g., 3180b). While displaying a representation of an eighth portion of the field of view of a first camera (e.g., a wide-angle camera) (e.g., 3180b) excluding at least a subset of the portions, the electronic device displays the field of view of one or more cameras a second request to reduce the zoom level (eg, zoom out) of the representation of the portion of the receive. In some embodiments, in response to receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level (eg, zoom out); A zoom level of 7 is a fifth zoom value range (e.g., a zoom value range outside the second zoom value range and a fourth zoom value range) (e.g., the first camera's field of view is the first region and the first zoom value range). 2 regions) (e.g., a zoom value range where the device switches between using the first camera and the third camera (e.g., a telephoto camera uses the preview region as can be satisfied)), the electronic device moves the first camera (e.g., wide-angle camera) (e.g., 3180b) in the field of view of the first camera (e.g., wide-angle camera) at a seventh zoom level in the first region. display a representation of 9 parts and in a second region display a representation of a 10th part of the field of view of the first camera (e.g. wide-angle camera) (e.g. 3180b) at a seventh zoom level; . In some embodiments, the second zoom value is the same as the first range of zoom values. In some embodiments, electronic The device switches to show representations in both areas using only a single camera. In some embodiments, if a camera cannot fill both the first and second regions at a particular zoom level, the device selects a camera that displays representations within the first region and a second region. continuing to use another camera to display a representation within the region; for example, a first request (e.g., a first user request to zoom out on the interface), and following determining that the seventh zoom level is not within (e.g., below) the fifth zoom value range, the electronic device performs , at a seventh zoom level, exclude at least a subset of the eighth portion of the field of view of the third camera (in some embodiments, the amount of the excluded subset depends on the seventh zoom level). displaying a representation of an eighth portion of the third camera's field of view, and in a second region of a subset of the portion of the third camera's field of view excluded from the eighth portion of the third camera's field of view; A first portion of the field of view of the third camera that overlaps a subset of the portion of the field of view of the third camera that is excluded from the eighth portion of the field of view of the third camera in the second region at the seventh zoom level without displaying a representation. Display a representation of an eighth portion of the camera's field of view. In some embodiments, upon determining that the seventh zoom level is not within the fifth zoom value range, the electronic device selects some type of camera displaying a representation within the first region and the second region. Using some type of camera that displays a representation within. In some embodiments, upon determining that the third zoom level is not within the first zoom value range, the electronic device adjusts the field of view of the first camera in the first region at a seventh zoom level. and displaying a representation of the tenth portion of the field of view of the first camera in the second region at the seventh zoom level. By switching one camera to display a representation when certain conditions are defined, the user can see improved fidelity and visual acuity when the representation is displayed within a certain zoom value range. An improved representation of an electronic device with a tear can be viewed. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第2の領域(例えば、602及び606)は、複数のカメラ設定を制御する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second region (eg, 602 and 606) includes multiple control affordances (eg, 620, 626) (eg, selectable user interface objects) (eg, selectable user interface objects) that control multiple camera settings (eg, Proactive Control Affordance, Shutter Affordance, Camera Selection Affordance, Multiple Camera Mode Affordance).

いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の位置での入力(例えば、2950i、2950j)を受信する。いくつかの実施形態では、カメラユーザインタフェース上の位置で入力を受信したことに応じて、電子デバイスは、入力(例えば、2950j)の位置が第1の領域(例えば、604)内にあるとの判定に従って、入力の位置に、焦点(例えば、2936c)を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950i)の位置が第2の領域(例えば、602)内にあるとの判定に従って、入力の位置に、焦点を合わせるように電子デバイスを構成することをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定することをやめる(例えば、図29J)。 In some embodiments, the electronic device receives input at locations on the camera user interface (eg, 2950i, 2950j). In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device determines that the location of the input (eg, 2950j) is within the first region (eg, 604). According to the determination, configure the electronic device to focus (e.g., 2936c) on the position of the input (and optionally adjust one or more other camera settings, such as exposure or white balance, to one or more The electronic device focuses on the position of the input (e.g., 2950i) upon determining that the position is within the second region (e.g., 602). (and optionally setting one or more other camera settings, such as exposure or white balance, based on one or more camera field-of-view characteristics) (eg, FIG. 29J).

いくつかの実施形態では、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現(例えば、図29Hの630)を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)(例えば、シャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ))を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野に対応するメディア(例えば、図29Iの624)をキャプチャし、メディアは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツを含む。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応じて、電子デバイスは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツの少なくとも一部及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツの少なくとも一部を含む、キャプチャされたメディアの表現(例えば、図29Pの2930)を表示することと、を含む。いくつかの実施形態では、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現は、メディアの表現の補正された(例えば、メディアアイテム内の識別された対象を保持するために、安定化、水平補正、垂直視点補正、水平視点補正、及び/又は再フレーム化された)バージョンである。いくつかの実施形態では、電子デバイスは、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現を表示し、第1のズームレベルで第1のカメラの視野の第1の部分からのコンテンツの少なくとも一部の表現及び第1のズームレベルで第2のカメラの視野の第1の部分からのコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、表現は、第1のズームレベルで第2のカメラ(又は第1のカメラ)の視野の第1の部分からのコンテンツの少なくとも一部の表現を表示することを含まず、メディアアイテムの表現は、第1のズームレベルで第2のカメラの視野の第1の部分からコンテンツの少なくとも一部を使用して生成される。 Some embodiments display, via a display device, a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level (eg, 630 in FIG. 29H). (e.g., a request to change from a first zoom level to a second zoom level), the electronic device directs a request to capture media (e.g., 2950h) (e.g., a shutter affordance (e.g., 610) receive gestures (eg, tap). In some embodiments, in response to receiving a request to capture media, the electronic device captures media corresponding to the field of view of one or more cameras (eg, 624 in FIG. 29I), the media Content from a first portion of the field of view of a first camera (e.g., wide-angle camera) (e.g., 3180b) at a first zoom level and a second camera (e.g., an ultra-wide-angle camera) at a first zoom level ) (eg, 3180a). In some embodiments, after capturing media, the electronic device receives a request (eg, 2950o) to edit the captured media. In some embodiments, in response to receiving a request to edit captured media, the electronic device directs a first camera (e.g., wide-angle camera) (e.g., 3180b) at a first zoom level. At least some of the content from the first portion of the field of view and at least one of the content from the first portion of the field of view of the second camera (e.g., ultra-wide angle camera) (e.g., 3180a) at a first zoom level. and displaying a representation of the captured media (eg, 2930 in FIG. 29P), including the portion. In some embodiments, content from the first portion of the field of view of the first camera at the first zoom level and content from the first portion of the field of view of the second camera at the first zoom level the representation of the media item is corrected (e.g., stabilized, horizontal corrected, vertical viewpoint corrected, horizontal viewpoint corrected, and/or reframed) version. In some embodiments, the electronic device captures content from a first portion of a first camera's field of view at a first zoom level and the first portion of a second camera's field of view at a first zoom level. displaying a representation of a media item including content from the portion, a representation of at least a portion of the content from the first portion of the field of view of the first camera at a first zoom level and a second at the first zoom level; displaying a representation of at least a portion of the content from the first portion of the camera's field of view of the . In some embodiments, the representation does not include displaying a representation of at least a portion of the content from the first portion of the second camera's (or first camera's) field of view at the first zoom level. , a representation of the media item is generated using at least a portion of the content from the first portion of the second camera's field of view at the first zoom level.

方法3200に関して上述された処理(例えば、図32A~図32C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3400、3600、3800、4000、及び4200は、方法3200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3000は、任意選択的に、方法3200に関連して上述した様々な技術を使用して、様々なズームレベルでメディアをキャプチャするために、異なる1組のカメラの組み合わせを使用することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 32A-32C) described above with respect to method 3200 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3400, 3600, 3800, 4000, and 4200 are described above with reference to method 3200. Optionally includes one or more of the characteristics of various methods. For example, method 3000 optionally uses a combination of different sets of cameras to capture media at various zoom levels using various techniques described above with respect to method 3200. to adopt. For the sake of brevity, these details are not repeated below.

図33A~図33Qは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図34A~図34Bにおける処理を含む、以下で説明する処理を例示するために使用される。いくつかの実施形態では、図8A~図8V及び図9A~図9Cで論じられた1つ以上の技術を、以下で論じられた図33A~図33Q及び図34A~図34Bの1つ以上の技術と任意選択的に組み合わせてもよい。 33A-33Q illustrate exemplary user interfaces for changing zoom levels using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 34A-34B. In some embodiments, one or more of the techniques discussed in FIGS. 8A-8V and 9A-9C are combined with one or more of FIGS. 33A-33Q and 34A-34B discussed below. It may optionally be combined with technology.

図33Aは、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 33A shows electronic device 600 displaying a live preview 630 extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 . In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 .

図33Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。いくつかの実施形態では、図33Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部を含む。いくつかの実施形態では、ライブプレビュー630は、インジケータ領域602及び/又はコントロール領域606に延びない。 The camera user interface of FIG. 33A includes indicator region 602 and control region 606, which are overlaid on live preview 630 such that the indicators and controls can be displayed simultaneously with live preview 630. FIG. Camera display area 604 does not substantially overlap with indicators or controls. In this example, live preview 630 includes a dog on a person's shoulder in the surrounding environment. In some embodiments, the camera user interface of FIG. 33A includes visual boundaries that indicate the boundaries between indicator area 602 and camera display area 604 and between camera display area 604 and control area 606 . In some embodiments, live preview 630 does not extend into indicator area 602 and/or control area 606 .

図33Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。 As shown in FIG. 33A, indicator area 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator region 602 includes flash indicator 602a. Flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode).

図33Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、1×ズームアフォーダンス2622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 33A, camera display area 604 includes live preview 630 and zoom affordance 2622, which includes 0.5× zoom affordance 2622a, 1× zoom affordance 2622b, and 2× zoom affordance 2622c. . In this example, 1x zoom affordance 2622b is selected, indicating that live preview 630 is presented at the 1x zoom level.

図33Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 33A, control area 606 overlays live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Control area 606 includes camera mode affordance 620 , a portion of media collection 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes.

更には、図33Aは、カメラインタフェースの異なる位置に対応する位置で様々なジェスチャに応答するデバイス600を示す。具体的には、図33Aは、デバイス600が3つの入力に応答することを示す:(1)インジケータ領域602内の位置に対応する位置でのタップジェスチャ(タップジェスチャ3350a);(2)ズームアフォーダンス2622のうちの1つの位置に対応しない、カメラディスプレイ領域604内の位置に対応するタップジェスチャ(タップジェスチャ3350b);及び(3)カメラディスプレイ領域604内にある、ズームアフォーダンス2622のうちの1つに対応する位置に対応するタップジェスチャ(タップジェスチャ3350c)。ある代替的シナリオにおいて、図33Aでは、デバイス600は、インジケータ領域602内の位置に対応する位置でのタップジェスチャ3350aを検出する。タップジェスチャ3350aを検出したことに応じて、デバイス600は、カメラユーザインタフェースの表示を維持し、かつ1つ以上のカメラの視野内の位置に対応するタップジェスチャ3550aの位置に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成することをやめる(例えば、図29H~図29Iにおいてタップジェスチャ2950iに関連して上で開示されたのと同様の技術を使用して)。別の代替的シナリオにおいて、図33Aでは、デバイス600は、ズームアフォーダンス2622のうちの1つの位置に対応しない、カメラディスプレイ領域604内の位置に対応するタップジェスチャの位置でのタップジェスチャ3350bを検出する。タップジェスチャ3350bを検出したことに応じて、デバイス600は、1つ以上のカメラの視野内の位置に対応するタップジェスチャ3550bの位置に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成する(例えば、図29I~図29Jにおいてタップジェスチャ2950jに関連して上で開示されたのと同様の技術を使用して)。図33Aでの追加のシナリオにおいて、デバイス600は、1×ズームアフォーダンス262bに対応する位置でのタップジェスチャ3350cを検出する。 Further, FIG. 33A shows device 600 responding to various gestures at positions corresponding to different positions of the camera interface. Specifically, FIG. 33A shows that device 600 responds to three inputs: (1) a tap gesture (tap gesture 3350a) at a position corresponding to a position within indicator region 602; (2) a zoom affordance. (3) a tap gesture corresponding to a position within camera display area 604 that does not correspond to a position of one of 2622 (tap gesture 3350b); A tap gesture (tap gesture 3350c) corresponding to the corresponding position. In an alternative scenario, in FIG. 33A device 600 detects tap gesture 3350a at a position corresponding to a position within indicator region 602. In FIG. In response to detecting tap gesture 3350a, device 600 maintains display of the camera user interface and focuses on the location of tap gesture 3550a corresponding to a location within the field of view of one or more cameras. Deconfigure one or more cameras of the electronic device (eg, using techniques similar to those disclosed above in connection with tap gesture 2950i in FIGS. 29H-29I). In another alternative scenario, in FIG. 33A , device 600 detects tap gesture 3350b at a position of the tap gesture corresponding to a position within camera display area 604 that does not correspond to the position of one of zoom affordances 2622. . In response to detecting tap gesture 3350b, device 600 configures one or more cameras of the electronic device to focus on the location of tap gesture 3550b corresponding to a location within the field of view of one or more cameras. (eg, using techniques similar to those disclosed above in connection with tap gesture 2950j in FIGS. 29I-29J). In an additional scenario in FIG. 33A, device 600 detects tap gesture 3350c at a location corresponding to 1× zoom affordance 262b.

図33Bに示すように、タップジェスチャ3350cを検出したことに応じて、デバイス600は、第1のカメラセンサから異なる視野を有する第2のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Aの1×ズームレベルから2×ズームレベルに更新する。いくつかの実施形態では、第2のカメラセンサが望遠写真レンズを有するカメラに対応するため(例えば、図31Iに関して上述したように)、デバイス600は、不透明(例えば、黒色)オーバーレイとともにインジケータ領域602を表示する。 As shown in FIG. 33B, in response to detecting tap gesture 3350c, device 600 switches from a first camera sensor to a second camera sensor with a different field of view, thereby changing the zoom level of live preview 630 to: Update from the 1× zoom level of FIG. 33A to the 2× zoom level. In some embodiments, because the second camera sensor corresponds to a camera with a telephoto lens (eg, as described above with respect to FIG. 31I), device 600 includes indicator region 602 with an opaque (eg, black) overlay. display.

タップジェスチャ3350cを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されていないものとして1×ズームアフォーダンス2622bを表示する。図33Bに示すように、ズームアフォーダンスが選択されていないものとして表示されるとき、ズームアフォーダンスは、太字ではなく、かつ選択されたときに表示される1つ以上の文字(例えば、「x」)を含まない(例えば、図33Bの1×ズームアフォーダンス2622bと比較して図33Aの1×ズームアフォーダンス2622b)。更には、デバイス600はまた、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する。図33Bに示すように、ズームアフォーダンスが選択されているものとして表示されるとき、ズームアフォーダンスは、太字化され、かつ未選択のズームアフォーダンスを含まない1つ以上の文字を含む(例えば、ズームレベルの隣の「x」)。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを拡大させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの1×ズームレベルから図33Bの2×ズームレベルへ)、テキストを拡大する。加えて、タップジェスチャ3350cを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Bに示すように、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスよりも大きいサイズを有する。いくつかの実施形態では、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスとは異なる色である。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応じて、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「2×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンスを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして2×ズームアフォーダンス2622cを表示する。 In response to detecting tap gesture 3350 c , device 600 also updates zoom affordance 2622 . Specifically, device 600 updates the display of 1x zoom affordance 2622b such that device 600 displays 1x zoom affordance 2622b as not selected. As shown in FIG. 33B, when the zoom affordance is displayed as not selected, the zoom affordance is not in bold and is one or more letters (e.g., "x") that are displayed when selected. (eg, 1× zoom affordance 2622b in FIG. 33A compared to 1× zoom affordance 2622b in FIG. 33B). Furthermore, the device 600 also updates the display of the 2x zoom affordance 2622c such that the device 600 displays the 2x zoom affordance 2622c as being selected. As shown in FIG. 33B, when a zoom affordance is displayed as selected, the zoom affordance is bolded and includes one or more letters that do not include unselected zoom affordances (e.g., zoom level 'x' next to ). In some embodiments, in response to detecting tap gesture 3350c, device 600 causes the text of zoom affordance 2622 to expand. In some embodiments, the device 600 displays the text as the device is displaying the live preview 630 at a higher zoom level (eg, from the 1× zoom level in FIG. 33A to the 2× zoom level in FIG. 33B). Expanding. Additionally, in response to detecting tap gesture 3350c, device 600 maintains display of 0.5x zoom affordance 2622a (eg, 0.5x zoom affordance 2622a remains unselected). As shown in FIG. 33B, when a zoom affordance is selected, it has a larger size than other unselected zoom affordances. In some embodiments, when a zoom affordance is selected, the zoom affordance is a different color than other unselected zoom affordances. In some embodiments, in response to detecting tap gesture 3350c, device 600 moves 1x to indicate the new zoom level (eg, changes text in 1x zoom affordance 2622b to "2x"). Update the display of the x zoom affordance 2622b and continue to display the 1 x zoom affordance as selected. In some embodiments, when the device updates the display of 1x zoom affordance 2622b to indicate the new zoom level, device 600 treats 2x zoom affordance 2622c as unselected (or selected). display.

図33B~図33Fは、2つの異なるタイプズームアフォーダンスに向けられたジェスチャに応じて、ズームレベルを変更するデバイス600を示す:(1)ズームアフォーダンス(例えば、1×ズームアフォーダンス2622b)が繰り返し選択されているとき、ライブプレビュー630が異なるズームレベルで表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス;及び(2)ズームアフォーダンスが繰り返し選択されているとき、ライブプレビュー630があるズームレベルでのみ表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス(例えば、ズームアフォーダンス2622c)。図33Bでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での追加のタップジェスチャ3350dを検出する。 33B-33F illustrate device 600 changing zoom levels in response to gestures directed at two different types of zoom affordances: (1) zoom affordances (eg, 1× zoom affordance 2622b) are repeatedly selected; (2) a zoom affordance that causes the device 600 to update the live preview 630 such that the live preview 630 is displayed at different zoom levels when the zoom affordance is repeatedly selected; A zoom affordance (eg, zoom affordance 2622c) that causes the device 600 to update the live preview 630 so that it is displayed only at the level. In FIG. 33B, device 600 detects an additional tap gesture 3350d at a location corresponding to 1× zoom affordance 2622b.

図33Cに示すように、タップジェスチャ3350dを検出したことに応じて、デバイス600は、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Bの2×ズームレベルから0.5×ズームレベルに更新する。ここで、第3のカメラセンサが超広角レンズを有するカメラに対応するため、デバイス600は、デバイスが第2のカメラセンサ(例えば、電話レンズ又は図31Aに関連して上述したような超広角レンズではないレンズ)で表示されたときに、不透明(例えば、又は黒色)オーバーレイの代わりに透明オーバーレイとともにインジケータ領域602を表示する。タップジェスチャ3350dを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されていないものとしてズームアフォーダンス2622cを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したものと同様の技術を使用して)。更には、デバイス600はまた、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したものと同様の技術を使用して)。加えて、タップジェスチャ3350dを検出したことに応じて、デバイス600は、1×ズームアフォーダンス2622bの表示を維持する(例えば、1×ズームアフォーダンス2622bは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを減少させる。いくつかの実施形態では、デバイス600は、デバイスがより小さいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの2×ズームレベルから図33Bの0.5×ズームレベルへ)、テキストを減少させる。いくつかの実施形態では、ズームレベルが0.5×であるときに表示される縮小されたテキストは、ズームレベルが1×であるときに表示されるテキストよりも小さい。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応じて、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「0.5×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンス2622bを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして0.5×ズームアフォーダンス2622aを表示する。図33Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での追加のタップジェスチャ3350eを検出する。 As shown in FIG. 33C, in response to detecting tap gesture 3350d, device 600 changes the zoom level of live preview 630 to Update from 2x zoom level in Figure 33B to 0.5x zoom level. Here, since the third camera sensor corresponds to a camera with an ultra-wide-angle lens, device 600 can be configured such that device 600 has a second camera sensor (e.g., a phone lens or an ultra-wide-angle lens as described above in connection with FIG. 31A). display indicator area 602 with a transparent overlay instead of an opaque (eg, or black) overlay when viewed with a non-optical lens). Device 600 also updates zoom affordance 2622 in response to detecting tap gesture 3350d. Specifically, device 600 updates the display of 2x zoom affordance 2622c such that device 600 displays zoom affordance 2622c as not selected (e.g., 1x zoom affordance 2622b in FIG. 33B). using techniques similar to those described above in connection). Furthermore, device 600 also updates the display of 0.5x zoom affordance 2622a such that device 600 displays 2x zoom affordance 2622c as being selected (e.g., 2x zoom affordance in FIG. 33B). using techniques similar to those described above with respect to affordance 2622c). Additionally, in response to detecting tap gesture 3350d, device 600 maintains display of 1x zoom affordance 2622b (eg, 1x zoom affordance 2622b remains unselected). In some embodiments, device 600 decreases the text of zoom affordance 2622 in response to detecting tap gesture 3350d. In some embodiments, the device 600 displays the live preview 630 at a smaller zoom level (eg, from 2x zoom level in Figure 33A to 0.5x zoom level in Figure 33B). Decrease text. In some embodiments, the reduced text displayed when the zoom level is 0.5x is smaller than the text displayed when the zoom level is 1x. In some embodiments, in response to detecting tap gesture 3350d, device 600 indicates a new zoom level (eg, changes text in 1x zoom affordance 2622b to "0.5x"). , updates the display of 1×zoom affordance 2622b, and continues to display 1×zoom affordance 2622b as being selected. In some embodiments, when the device updates the display of the 1× zoom affordance 2622b to indicate the new zoom level, the device 600 assumes that it is unselected (or selected) and the 0.5× zoom Display affordance 2622a. In FIG. 33C, device 600 detects an additional tap gesture 3350e at a location corresponding to 1× zoom affordance 2622b.

図33Dに示すように、タップジェスチャ3350eを検出したことに応じて、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Cの0.5×ズームレベルから1×ズームレベルに更新する。タップジェスチャ3350eを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されていないものとして0.5×ズームアフォーダンス2622aを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したものと同様の技術を使用して)。更には、デバイス600はまた、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されているものとして1×ズームアフォーダンス2622bを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したものと同様の技術を使用して)。加えて、タップジェスチャ3350eを検出したことに応じて、デバイス600は、2×ズームアフォーダンス2622cの表示を維持する(例えば、2×ズームアフォーダンス2622cは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350eを検出したことに応じて、デバイス600は、ズームアフォーダンス2622のテキストを増加させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの0.5×ズームレベルから図33Bの1×ズームレベルへ)、テキストを増加させる。図33Dでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置でのタップジェスチャ3350fを検出する。 As shown in FIG. 33D, in response to detecting tap gesture 3350e, device 600 switches the zoom level of live preview 630 from the third camera sensor to the first camera sensor, which has a different field of view. Update from 0.5x zoom level in Figure 33C to 1x zoom level. In response to detecting tap gesture 3350 e , device 600 also updates zoom affordance 2622 . Specifically, the device 600 updates the display of the 0.5x zoom affordance 2622a such that the device 600 displays the 0.5x zoom affordance 2622a as unselected (e.g., using techniques similar to those described above with respect to the 1× zoom affordance 2622b). Furthermore, device 600 also updates the display of 1x zoom affordance 2622b such that device 600 displays 1x zoom affordance 2622b as being selected (e.g., 2x zoom affordance 2622c in FIG. 33B). (using techniques similar to those described above in connection with ). Additionally, in response to detecting tap gesture 3350e, device 600 maintains display of 2x zoom affordance 2622c (eg, 2x zoom affordance 2622c remains unselected). In some embodiments, device 600 increases the text of zoom affordance 2622 in response to detecting tap gesture 3350e. In some embodiments, the device 600 displays the live preview 630 at a larger zoom level (eg, from 0.5x zoom level in FIG. 33A to 1x zoom level in FIG. 33B). Increase text. In FIG. 33D, device 600 detects tap gesture 3350f at a location corresponding to 2× zoom affordance 2622c.

図33Eに示すように、タップジェスチャ3350fを検出したことに応じて、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Dの1×ズームレベルから2×ズームレベルに更新する。タップジェスチャ3350fを検出したことに応じて、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、(例えば、図33Bに関連して上述したようなものと同様の技術を使用して)選択されているものとして1×ズームアフォーダンス2622b及び2×ズームアフォーダンス2622cの表示を更新する。加えて、タップジェスチャ3350fを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Eでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置での追加のタップジェスチャ3350gを検出する。 As shown in FIG. 33E, in response to detecting tap gesture 3350f, device 600 switches from the third camera sensor to the first camera sensor having a different field of view, thereby changing the zoom level of live preview 630 to Update from 1× zoom level to 2× zoom level in FIG. 33D. In response to detecting tap gesture 3350 f, device 600 also updates zoom affordance 2622 . Specifically, the device 600 determines (eg, using techniques similar to those described above with respect to FIG. 33B) the 1×zoom affordance 2622b and the 2×zoom affordance 2622c as being selected. Refresh the display. Additionally, in response to detecting tap gesture 335Of, device 600 maintains display of 0.5x zoom affordance 2622a (eg, 0.5x zoom affordance 2622a remains unselected). In FIG. 33E, device 600 detects an additional tap gesture 3350g at a location corresponding to 2× zoom affordance 2622c.

図33Fに示すように、タップジェスチャ3350gを検出したことに応じて、デバイス600は、ズームアフォーダンス2622及びライブプレビュー630のズームレベルを更新することをやめる。図33Eにおいて、ライブプレビュー630は、2×ズームレベルで表示され続ける。ここで、1×ズームアフォーダンス2622b上のタップジェスチャの検出とは異なり(例えば、図35B~図35Dに記載される)、デバイス600は、2×ズームアフォーダンス2622c上の追加のタップに応じて、複数のズームレベルでライブプレビュー630を表示しない。したがって、デバイス600が、2×ズームアフォーダンス2622cがズームレベルを循環させることができないズームアフォーダンスのタイプであると判定するので、デバイス600は、ジェスチャ3350gを検出したことに応じて、ライブプレビュー630のズームレベルを更新することをやめる。しかしながら、デバイス600が、0.5×ズームアフォーダンス2622cがズームレベルを循環させることができるズームアフォーダンスのタイプである(例えば、1×ズームアフォーダンス2622bなど)と判定したので、デバイス600は、ジェスチャ3350gを検出したことに応じて、ライブプレビュー630のズームレベルを更新した。 In response to detecting tap gesture 3350g, device 600 ceases updating the zoom affordance 2622 and the zoom level of live preview 630, as shown in FIG. 33F. In Figure 33E, the live preview 630 continues to be displayed at the 2x zoom level. Here, unlike detecting a tap gesture on 1x zoom affordance 2622b (eg, described in FIGS. 35B-35D), device 600 detects multiple do not display the live preview 630 at zoom levels of . Accordingly, device 600 determines that 2× zoom affordance 2622c is a type of zoom affordance that cannot cycle through zoom levels, so device 600 zooms live preview 630 in response to detecting gesture 3350g. Stop updating levels. However, device 600 determines that 0.5x zoom affordance 2622c is a type of zoom affordance that can cycle through zoom levels (eg, 1x zoom affordance 2622b, etc.), so device 600 performs gesture 3350g. The zoom level of the live preview 630 was updated according to what was detected.

図33F~図33Oは、より多くのズームアフォーダンスのうちの1つの上のスワイプジェスチャ又はプレスホールドジェスチャに応じて、調整可能なズームコントロールを表示し、かつ調整可能なズームコントロールに向けられたジェスチャを検出したことに応じて、ライブプレビューのズームレベルを変更するデバイス600を示す。図33Fでは、デバイス600は、2×ズームアフォーダンス2622cに対応する位置での上向きスワイプジェスチャ3550h(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。代わりに、デバイス600デバイスは、2×ズームアフォーダンス2622cに対応する位置でのプレスアンドホールドジェスチャを検出する。 FIGS. 33F-33O display an adjustable zoom control in response to a swipe or press-hold gesture on one of the more zoom affordances, and show a gesture directed at the adjustable zoom control. The device 600 is shown changing the zoom level of the live preview in response to what is detected. In FIG. 33F, device 600 detects an upward swipe gesture 3550h (eg, an upward swipe gesture from control region 606 toward indicator region 602) at a location corresponding to 2× zoom affordance 2622c. Instead, the device 600 device detects a press and hold gesture at a location corresponding to 2x zoom affordance 2622c.

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328を表示し、かつズームアフォーダンス2622を表示することを停止する。調整可能なズームコントロール3328は、図33Gにおいて、ズームアフォーダンス2622が図33Fに以前に表示された位置を覆う。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604の底部から、図33Gに表示されるカメラディスプレイ領域604内の位置にスライドする、調整可能なズームコントロール3328のアニメーションを表示することにより、調整可能なズームコントロール3328は表示する。 As shown in FIG. 33G, in response to detecting an upward swipe gesture 3350h (or a press and hold gesture), device 600 displays adjustable zoom control 3328 and stops displaying zoom affordance 2622. do. Adjustable zoom control 3328 overlies in FIG. 33G where zoom affordance 2622 was previously displayed in FIG. 33F. In some embodiments, device 600 displays an animation of adjustable zoom control 3328 sliding from the bottom of camera display area 604 to the position within camera display area 604 shown in FIG. An adjustable zoom control 3328 is displayed.

図33Gに示すように、調整可能なズームコントロール3328は、仮想的に回転可能な車輪又はダイヤルを模倣する回転可能なユーザインタフェースである。調整可能なズームコントロール3328は、ズームインジケーション3328a1及び複数のティックマークを含み、各ティックマークは、異なるズームレベルに対応する。調整可能なズームコントロール3328上の各ティックマークは、一部と等しい距離ではない。図3328に示すように、調整可能なズームコントロール3328は、各々が第1の距離だけ離れて表示される第1の1組のティックマーク(例えば、1×ズームインジケータ3328bの下のティックマーク)及び各々が第2の距離だけ離れて表示される第2の1組のティックマーク(例えば、1×ズームインジケータ3328bの上のティックマーク)を含む。調整可能なズームコントロール3328は、1×ズームインジケータ3328b、2×ズームインジケータ3328c、及び3×レベルインジケータ3328dを更に含み、これは、1×ズームレベル、2×ズームレベル、及び3×ズームレベルにそれぞれ対応する、調整可能なズームコントロール3328上にティックマーク(又は位置)が配置される。 As shown in FIG. 33G, adjustable zoom control 3328 is a rotatable user interface that mimics a virtual rotatable wheel or dial. Adjustable zoom control 3328 includes a zoom indication 3328a1 and a plurality of tick marks, each tick mark corresponding to a different zoom level. Each tick mark on the adjustable zoom control 3328 is not an equal distance away. As shown in diagram 3328, the adjustable zoom control 3328 comprises a first set of tick marks (eg, the tick mark below the 1x zoom indicator 3328b) and a first set of tick marks each displayed a first distance apart. A second set of tick marks (eg, the tick mark above the 1× zoom indicator 3328b) each displayed a second distance apart. Adjustable zoom control 3328 further includes a 1x zoom indicator 3328b, a 2x zoom indicator 3328c, and a 3x level indicator 3328d, which correspond to 1x zoom level, 2x zoom level, and 3x zoom level, respectively. A tick mark (or position) is placed on the corresponding adjustable zoom control 3328 .

図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、2×ズームインジケータ3328cで標識されたティックマークに対応する、調整可能なズームコントロール3328上の位置にズームインジケーション3328a1を表示する。ここで、デバイス600は、実質的に調整可能なズームコントロール3328の中心にある位置で、2×ズームインジケータ3328cと位置合わせされたズームインジケーション3328a1を表示する。換言すれば、調整可能なズームコントロール3328が最初に表示されると、デバイス600は、ライブプレビュー630の現在のズームレベル(例えば、2×ズームレベル)に対応する調整可能なズームコントロール上の位置(例えば、中央位置)にズームインジケーション3328a1を表示する。更には、デバイス600は、選択されているものとして2×ズームインジケータ3328cを表示することによって、2×ズームレベルが選択されることを表示する。いくつかの実施形態では、調整可能なズームコントロール3328が最初に表示されると(又は調整可能なズームコントロール3328が表示された後の第1の時点で)、デバイス600は、ズームアフォーダンス2622のそれぞれに対応するズームインジケータを同時に表示する。図33Gでは、デバイス600は、ズームコントロール3328に対応する位置での右向きスワイプジェスチャ3350iを検出する。 As shown in FIG. 33G, in response to detecting an upward swipe gesture 335Oh (or a press and hold gesture), device 600 displays an adjustable zoom control corresponding to the tick mark labeled with 2x zoom indicator 3328c. A zoom indication 3328a1 is displayed at a position above 3328. Here, device 600 displays zoom indication 3328 a 1 aligned with 2× zoom indicator 3328 c at a position substantially centered on adjustable zoom control 3328 . In other words, when adjustable zoom control 3328 is first displayed, device 600 displays a position ( For example, a zoom indication 3328a1 is displayed at the center position). Additionally, device 600 indicates that the 2x zoom level is selected by displaying 2x zoom indicator 3328c as selected. In some embodiments, when adjustable zoom control 3328 is first displayed (or at a first time after adjustable zoom control 3328 is displayed), device 600 displays each of zoom affordances 2622. Simultaneously display a zoom indicator corresponding to . In FIG. 33G, device 600 detects right swipe gesture 3350i at a position corresponding to zoom control 3328. In FIG.

図33Gに示すように、右向きスワイプジェスチャ3350iを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ3350iの大きさに基づいて、調整可能なズームコントロール3328を時計回りに回転させる。デバイス600が調整可能なズームコントロール3328を回転させると、デバイス600は、調整可能なズームコントロール3328上のティックマークを、それらが以前に表示された位置に対して時計回りである位置に動かす。更に、右向きスワイプジェスチャ3350iを検出したことに応じて、デバイス600は、2×ズームインジケータ3328cを、1.7×ズームインジケータ3328eに置き換え、かつ実質的に調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を維持する。それにより、図33Gにおいて、デバイス600は、1.7×ズームインジケータ3328eと位置合わせされているようにズームインジケーション3328a1を表示し、デバイス600は、選択されているものとして1.7×ズームインジケータ3328eを表示する。図33Hでは、デバイス600は、ズームコントロール3328に対応する第2の位置での右向きスワイプジェスチャ3350iのリフトオフを検出する。 As shown in FIG. 33G, in response to detecting right swipe gesture 3350i, device 600 rotates adjustable zoom control 3328 clockwise based on the magnitude of right swipe gesture 3350i. As the device 600 rotates the adjustable zoom control 3328, the device 600 moves the tick marks on the adjustable zoom control 3328 to positions that are clockwise relative to their previously displayed position. Further, in response to detecting right swipe gesture 3350i, device 600 replaces 2x zoom indicator 3328c with 1.7x zoom indicator 3328e and substantially centers adjustable zoom control 3328. Maintain zoom indication 3328a1. Accordingly, in FIG. 33G, device 600 displays zoom indication 3328a1 as aligned with 1.7× zoom indicator 3328e, and device 600 displays 1.7× zoom indicator as selected. 3328e is displayed. 33H, device 600 detects a liftoff of right swipe gesture 3350i at a second position corresponding to zoom control 3328. In FIG.

図33Iに示すように、右向きスワイプジェスチャ3350iのリフトオフを検出した後の第1の時間において、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつ0.5×ズームアフォーダンス2622a及び2×ズームアフォーダンス2622cを、図33Fにそれらが以前に表示された位置で再表示する。しかしながら、デバイス600は、1×ズームアフォーダンス2622bを表示することを停止し、かつ1.7×ズームアフォーダンス2622iを、図33Fにおいて1×ズームアフォーダンス2622bの以前に表示された位置に表示する。これは、少なくとも調整可能なズームコントロールが1.7×ズームレベルに設定されているためであり、1.7×ズームレベルは、ズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にある。1.7×ズームアフォーダンス2622jはまた、選択されているものとして表示される(図33Bにおいて2×ズームアフォーダンス2622c関連して上述したように)。ズームアフォーダンスを表示することに加えて、デバイス600はまた、ライブプレビュー630のズームレベルを、1.7×ズームレベルに更新する。いくつかの実施形態では、デバイス600は、右向きスワイプジェスチャ3350iを検出したことに応じて、かつ右向きスワイプジェスチャ3350iのリフトオフを検出する前に、ライブプレビュー630のズームレベルを更新する。図33Iでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置でのタップジェスチャ3350jを検出する。 As shown in FIG. 33I, at a first time after detecting the liftoff of right swipe gesture 3350i, device 600 stops displaying adjustable zoom control 3328 and changes to 0.5× zoom affordance 2622a. and 2× zoom affordances 2622c are redisplayed at the positions where they were previously displayed in FIG. 33F. However, device 600 stops displaying 1× zoom affordance 2622b and displays 1.7× zoom affordance 2622i at the previously displayed position of 1× zoom affordance 2622b in FIG. 33F. This is because at least the adjustable zoom control is set to the 1.7x zoom level, which is between the range of zoom levels to replace the zoom affordance (e.g., 1x and 2×). 1.7x zoom affordance 2622j is also displayed as being selected (as described above in connection with 2x zoom affordance 2622c in Figure 33B). In addition to displaying the zoom affordance, device 600 also updates the zoom level of live preview 630 to 1.7x zoom level. In some embodiments, device 600 updates the zoom level of live preview 630 in response to detecting right swipe gesture 3350i and prior to detecting a liftoff of right swipe gesture 3350i. In FIG. 33I, device 600 detects tap gesture 3350j at a location corresponding to 0.5× zoom affordance 2622a.

図33Jに示すように、タップジェスチャ3350jを検出したことに応じて、デバイス600は、ライブプレビュー630のズームレベルを0.5×ズームレベルに更新する。更に、タップジェスチャ3350jを検出したことに応じて、デバイス600は、ライブプレビュー630がデフォルトズームレベル(例えば、ズームアフォーダンス2622のうちの1つに対応するズームレベル)で表示されるため、1.7×ズームアフォーダンス2622jの表示を、2×ズームアフォーダンス2622hで置き換える。図33Jに示すように、デバイス600はまた、図33Cにおいてライブプレビュー630が0.5×ズームレベルで表示されたとき、カメラユーザインタフェースを表示することに関連して上述したものと同様の技術を使用して、カメラユーザインタフェースを更新する。図33Jでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350kを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する位置でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33J, in response to detecting tap gesture 3350j, device 600 updates the zoom level of live preview 630 to 0.5× zoom level. Further, in response to detecting tap gesture 3350j, device 600 determines that live preview 630 is displayed at a default zoom level (eg, a zoom level corresponding to one of zoom affordances 2622), so that 1.7 Replace the display of x zoom affordance 2622j with 2 x zoom affordance 2622h. As shown in FIG. 33J, device 600 also employs techniques similar to those described above in connection with displaying the camera user interface when live preview 630 is displayed at the 0.5× zoom level in FIG. 33C. Use to update the camera user interface. In FIG. 33J, device 600 detects upward swipe gesture 3350k at a location corresponding to 0.5× zoom affordance 2622a. Alternatively, the device 600 device detects a press and hold gesture at a position corresponding to 0.5x zoom affordance 2622a.

図33Kに示すように、上向きスワイプジェスチャ3350k(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を表示する。上向きスワイプジェスチャ3350kが検出される直前に、ライブプレビュー630が0.5×ズームレベルで表示されたため、デバイス600は、0.5×ズームインジケータ3328aと位置合わせされたズームインジケーション3328a1を表示する。更には、デバイス600は、カメラユーザインタフェース及びデバイス600がカメラユーザインタフェースを表示することに関連して使用された0.5×ズームレベルが選択されるときの調整可能なズームコントロール3328及び2×ズームレベルが図33Gにおいて選択されたときの調整可能なズームコントロール3328を表示するのと同様の技術を使用する。図33Kでは、デバイス600は、ズームコントロール3328に対応する位置での左向きスワイプジェスチャ3350lを検出する。 In response to detecting the upward swipe gesture 3350k (or press and hold gesture), the device 600 displays a zoom indication 3328a1 at the center position of the adjustable zoom control 3328, as shown in FIG. 33K. Device 600 displays zoom indication 3328a1 aligned with 0.5x zoom indicator 3328a because live preview 630 was displayed at a 0.5x zoom level just before swipe up gesture 3350k was detected. In addition, the device 600 displays the camera user interface and adjustable zoom controls 3328 and 2X zoom when the 0.5X zoom level used in connection with the device 600 displaying the camera user interface is selected. A similar technique is used to display the adjustable zoom control 3328 when Level is selected in FIG. 33G. In FIG. 33K, device 600 detects left swipe gesture 3350 l at a position corresponding to zoom control 3328 .

図33Lに示すように、ズームコントロール3328に対応する位置で左向きスワイプジェスチャ3350lを検出したことに応じて、デバイスは、左向きスワイプジェスチャ3350lの大きさに基づいて、調整可能なズームコントロール3328を反時計回りに回転させる。調整可能なズームコントロール3328を回転させた後、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。更には、デバイス600は、デバイス600が、図33Hにおいて右向きスワイプジェスチャ3350iを検出したことに応じて、カメラユーザインタフェースを表示することに関連して使用された、左向きスワイプジェスチャ3350lを検出したことに応じて、カメラユーザインタフェースを表示するのと同様の技術を使用する。図33Lでは、デバイス600は、左向きスワイプジェスチャ3350lのリフトオフを検出し、かつ左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間(例えば、デバイス600が調整可能なズームコントロール3328を表示することを停止する時間に対応する時間)の前に、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の位置に対応する位置でのタップジェスチャ3350mを検出する。 As shown in FIG. 33L, in response to detecting left swipe gesture 3350l at a location corresponding to zoom control 3328, the device moves adjustable zoom control 3328 counterclockwise based on the magnitude of left swipe gesture 3350l. rotate around. After rotating adjustable zoom control 3328 , device 600 displays zoom indication 3328 a 1 centered on adjustable zoom control 3328 and aligned with 1× zoom indicator 3328 b. Further, device 600 detects left swipe gesture 3350l used in connection with displaying a camera user interface in response to device 600 detecting right swipe gesture 3350i in FIG. 33H. Accordingly, similar techniques are used to display the camera user interface. In FIG. 33L, device 600 detects liftoff of left swipe gesture 3350l, and a first time after detecting liftoff of left swipe gesture 3350l (e.g., device 600 displays adjustable zoom control 3328). , the device 600 detects a tap gesture 3350 m at a position corresponding to a position outside the zoom control 3328 and within the camera display area 604 .

図33Mに示すように、左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間の前に、タップジェスチャ3350mを検出したことに応じて、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつ複数のズームアフォーダンス2622を再表示する。更には、デバイス600はまた、上述したものと同様の技術を使用して、1×ズームレベルでライブプレビュー630を表示する。図33Iとは対照的に、図33Mは、デバイス600がどのように調整可能なズームコントロール628を表示することを停止し、かつジェスチャのリフトオフを検出した後の第1の時間まで待機する前に、調整可能なズームコントロール628上に設定されたズームレベルでライブプレビュー630を表示するかの例を示す。図33Mでは、デバイスは、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350nを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する位置でのプレスアンドホールドジェスチャを検出する。 As shown in FIG. 33M, in response to detecting tap gesture 3350m before a first time after detecting liftoff of left swipe gesture 3350l, device 600 displays adjustable zoom control 3328. and redisplay multiple zoom affordances 2622 . Additionally, the device 600 also displays a live preview 630 at the 1x zoom level using techniques similar to those described above. In contrast to FIG. 33I, FIG. 33M shows how the device 600 stops displaying the adjustable zoom control 628 and waits until a first time after detecting the gesture lift-off. , shows an example of how to display the live preview 630 at the zoom level set on the adjustable zoom control 628. FIG. In Figure 33M, the device detects an upward swipe gesture 3350n at a location corresponding to a 0.5x zoom affordance 2622a. Alternatively, the device 600 device detects a press and hold gesture at a position corresponding to 0.5x zoom affordance 2622a.

図33Nに示すように、0.5×ズームアフォーダンス2622aに対応する位置での上向きスワイプジェスチャ3350n(又はプレスアンドホールドジェスチャ)を検出したことに応じて、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示し、かつズームアフォーダンス2622を表示することを停止する。ここで、図33Nでは、デバイス600は、上向きスワイプジェスチャ3350nが検出される直前に、ライブプレビュー630が1×ズームレベルで表示されたため(例えば、カメラユーザインタフェース及び/又はライブプレビュー630の現在表示されているズームレベル)、ズームレベルではなく1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。図33Nでは、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の位置に対応する位置でのタップジェスチャ3350oを検出する。 As shown in FIG. 33N, in response to detecting an upward swipe gesture 3350n (or a press and hold gesture) at a location corresponding to 0.5× zoom affordance 2622a, device 600 causes the adjustable zoom control 3328 to , displays zoom indication 3328a 1 as aligned with 1× zoom indicator 3328b and stops displaying zoom affordance 2622 . Here, in FIG. 33N , the device 600 detects that the live preview 630 was displayed at a 1× zoom level just before the upward swipe gesture 3350n was detected (e.g., the camera user interface and/or the currently displayed live preview 630). zoom level), display zoom indication 3328a1 as aligned with 1× zoom indicator 3328b rather than the zoom level. 33N, device 600 detects tap gesture 3350o at a position corresponding to a position outside zoom control 3328 and within camera display area 604. In FIG.

図33Oに示すように、タップジェスチャ3350oを検出した後に、デバイス600は、調整可能なズームコントロール3328を表示することを停止し、かつズームアフォーダンス2622を再表示する。図33Oでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのデピンチジェスチャ3350pを検出する。 After detecting tap gesture 3350o, device 600 stops displaying adjustable zoom control 3328 and redisplays zoom affordance 2622, as shown in FIG. 33O. 33O, device 600 detects a depinch gesture 3350p at a position corresponding to camera display area 604. In FIG.

図33Pに示すように、デピンチジェスチャ3350pを検出したことに応じて、デバイス600は、デピンチジェスチャ3350pの大きさに基づいて、2.2×ズームレベルでライブプレビュー630を表示する。加えて、デピンチジェスチャ3350pを検出したことに応じて、デバイス600は、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを、2.2×ズームアフォーダンス2622gに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応じて、デバイス600は、更に、選択されているものとして2.2×ズームアフォーダンス2622gを表示して、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。図33Pでは、デバイス600は、カメラディスプレイ領域604に対応する位置でのピンチジェスチャ3350qを検出する。 As shown in FIG. 33P, in response to detecting the depinch gesture 3350p, the device 600 displays a live preview 630 at a 2.2× zoom level based on the magnitude of the depinch gesture 3350p. Additionally, in response to detecting de-pinch gesture 335Op, device 600 replaces display of 2x zoom affordance 2622c with display of 2.2x zoom affordance 2622g, where 2.2x zoom affordance 2622g. is displayed as selected to indicate that the live preview 630 is displayed at a 2.2x zoom level. Here, the device 600 replaces the 2× zoom affordance 2622c with the 2.2× zoom affordance 2622g because the 2.2× zoom level is above (eg, above 2×) the zoom level to replace the zoom affordance. replace with As shown in FIG. 31B, in response to detecting de-pinch gesture 3150a, device 600 further displays 2.2× zoom affordance 2622g as being selected and live preview 630 is 2.2. Indicates that it is displayed at the × zoom level. 33P, device 600 detects pinch gesture 3350q at a location corresponding to camera display area 604. In FIG.

図33Qに示すように、ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、ピンチジェスチャ3550qの大きさに基づいて、0.9×ズームレベルでライブプレビュー630を表示する。加えて、ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、0.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。ズームレベルが2×ズームレベルをもはや上回らないため、デバイス600はまた、2.2×ズームアフォーダンス2622gを、2×ズームアフォーダンス2622cに置き換える。ピンチジェスチャ3350qを検出したことに応じて、デバイス600は、更に、選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。 As shown in FIG. 33Q, in response to detecting pinch gesture 3350q, device 600 displays live preview 630 at a 0.9× zoom level based on the magnitude of pinch gesture 3550q. Additionally, in response to detecting pinch gesture 3350q, device 600 replaces display of 0.5x zoom affordance 2622a with display of 0.9x zoom affordance 2622d. Here, device 600 converts 0.5x zoom affordance 2622a to 0.9x zoom affordance 2622d because 0.9x zoom level is below a threshold zoom level (e.g., 1x) to replace the zoom affordance. replace. Device 600 also replaces 2.2× zoom affordance 2622g with 2× zoom affordance 2622c because the zoom level no longer exceeds the 2× zoom level. In response to detecting pinch gesture 3350q, device 600 further displays 0.9x zoom affordance 2622d as being selected such that live preview 630 is displayed at the 0.9x zoom level. indicates

図34A~図34Bは、いくつかの実施形態による、電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法3400は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3400のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 34A-34B are flow diagrams illustrating methods for changing zoom levels using an electronic device, according to some embodiments. Method 3400 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 3400 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) to an integrated or external display generating component via a wired or wireless connection to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法3400は、ユーザインタフェースのズームレベルを変更するための直感的な仕方を提供する。この方法は、ユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3400 provides an intuitive way to change the zoom level of the user interface. This method reduces the user's cognitive burden in changing the zoom level of the user interface, thereby creating a more efficient human-machine interface. For battery-operated computing devices, enabling users to change zoom levels faster and more efficiently saves power and extends the time between battery charges.

後述するように、方法3400は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 3400 provides an intuitive way to edit captured media. This method reduces the user's cognitive burden in editing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to edit media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、.5×、1×、2×)で表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現(例えば、630)を含むカメラユーザインタフェースを表示する(3402)。カメラユーザインタフェースは、複数のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。複数のズームアフォーダンスは、第1のズームアフォーダンス(例えば、2622b)(例えば、選択可能ユーザインタフェースオブジェクト)及び第2のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、ズームアフォーダンスは、1つ以上のカメラの視野の表現の少なくとも一部分上に重ね合わされて表示される。異なるズームレベルに対応する複数のズームアフォーダンスを表示することにより、ユーザが表示表現のズームレベルを変更するために必要とされる入力の数を低減する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 An electronic device (e.g., 600) includes a display device (e.g., a touch-sensitive display) and one or more cameras (e.g., one or more cameras on the same or different sides of the electronic device (e.g., front camera, rear camera)). (e.g. dual camera, triple camera, quad camera, etc.). The electronic device provides, via a display device, a first representation (e.g., 630) is displayed (3402). The camera user interface includes a plurality of zoom affordances (eg, 2622) (eg, selectable user interface objects). The plurality of zoom affordances includes a first zoom affordance (eg, 2622b) (eg, selectable user interface object) and a second zoom affordance (eg, 2622) (eg, selectable user interface object). In some embodiments, the zoom affordance is displayed superimposed over at least a portion of the representation of the field of view of one or more cameras. Displaying multiple zoom affordances corresponding to different zoom levels reduces the number of inputs required by a user to change the zoom level of the displayed representation. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

複数のズームアフォーダンスを表示している間に、電子デバイスは、複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャ(例えば、3350c~3350g)(例えば、タップ)を受信する(3404)(例えば、検出する)。 While displaying the plurality of zoom affordances, the electronic device receives (3404) a first gesture (eg, 3350c-3350g) directed at one of the plurality of zoom affordances (eg, tap). ) (e.g., detect).

第1のジェスチャを受信したことに応じて(3406)、かつ第1のジェスチャが第1のズームアフォーダンス(例えば、2622b)(例えば、特定のズームレベル(例えば、第2のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350c)であるとの判定に従って(3410)、電子デバイスは、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現(例えば、630)を表示する(3412)(例えば、第1のズームレベルで表示するように、カメラユーザインタフェースを更新する)。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 responsive to receiving 3406 a first gesture, and the first gesture corresponds to a first zoom affordance (eg, 2622b) (eg, a particular zoom level (eg, a second zoom level); affordance), upon determining 3410 that the gesture (e.g., 3350c) is directed to the A second representation (eg, 630) of at least a portion of the camera's field of view is displayed 3412 (eg, updating the camera user interface to display at the first zoom level). By dynamically updating the representation's display to a particular zoom level when a particular zoom affordance is selected, it provides feedback to the user on changes in the zoom level of the updated representation for the particular zoom affordance. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

第1のジェスチャを受信したことに応じて(3410)、かつ第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350f)であるとの判定に従って(3416)、電子デバイスは、第3のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第3の表現(例えば、630)を表示する(3418)(例えば、第2のズームレベルで表示するように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第3のズームレベルは、第1のズームレベル及び第2のズームレベルとは異なる。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In response to receiving 3410 the first gesture, and the first gesture is directed to a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)). Upon determining 3416 that the gesture (e.g., 3350f) is a touch gesture (e.g., 3350f), the electronic device moves at least one field of view of one or more cameras at a third zoom level (e.g., .5x, 1x, 2x). A third representation (eg, 630) of the portion is displayed 3418 (eg, updating the camera user interface to display at the second zoom level). In some embodiments, the third zoom level is different than the first zoom level and the second zoom level. By dynamically updating the representation's display to a particular zoom level when a particular zoom affordance is selected, it provides feedback to the user on changes in the zoom level of the updated representation for the particular zoom affordance. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って(3410)、電子デバイスは、第2のズームアフォーダンス(例えば、3350cに応じて、図35Bの2622c)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第1のズームアフォーダンス(例えば、3350cに応じて、図35Bの2622b)の視覚特性を変更する(3414)(例えば、第1のズームアフォーダンスの現在の視覚特性を、第1のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, upon determining (3410) that the first gesture is a gesture directed at a first zoom affordance, the electronic device responds to a second zoom affordance (e.g., 3350c) by 35B 2622c)) (e.g., do not change visual properties (e.g., color, text, thickness, opacity, highlights)), and the first zoom affordance (e.g., in response to 3350c). 35B 2622b) change (3414) (e.g., update, replace the current visual properties of the first zoom affordance with new visual properties of the first zoom affordance) (e.g., visual properties (e.g., , color, text, thickness, opacity, highlight)). providing feedback to the user on the current state of the selected zoom affordance by updating the visual properties of the zoom affordance while maintaining the visual properties of other zoom affordances, and which zoom affordance is selected; and providing visual feedback to the user indicating that the electronic device is currently displaying a representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャであるとの判定に従って(3416)、電子デバイスは、第1のズームアフォーダンス(例えば、3350fに応じて、図35Eの2622b)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第2のズームアフォーダンス(例えば、3350fに応じて、図35Eの2622c)の視覚特性を変更する(3420)(例えば、第2のズームアフォーダンスの現在の視覚特性を、第2のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。いくつかの実施形態では、第1のズームアフォーダンスの視覚特性及び第2のズームアフォーダンスの視覚特性は、視覚特性のタイプ(例えば、例えば、色、テキスト、太さ、不透明度、ハイライト)である。いくつかの実施形態では、視覚特性は、以前に選択されたズームアフォーダンスから新しいズームアフォーダンスに動かされる(例えば、選択された1×を示すズームアフォーダンス及び未選択の0.5を示すズームアフォーダンス、並びに第1のジェスチャを検出したことに応じて、1を示す1×を示したズームアフォーダンス及び.5×を示す5を示したズームアフォーダンス(例えば、「x」は、アフォーダンス間を動く)。いくつかの実施形態では、テキストのサイズは、選択されたアフォーダンスのズームレベルで変更する(例えば、0.5×アフォーダンスが選択されるときのテキストのサイズは、1×アフォーダンスが選択されるときのテキストのサイズよりも小さい)(例えば、ズームレベルがより大きいと、より大きなテキストを有する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, upon determining that the first gesture is directed to a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)) ( 3416), the electronic device maintains the visual properties of the first zoom affordance (eg, 2622b in FIG. 35E in response to 3350f) (eg, visual properties (eg, color, text, thickness, opacity, high light)), and change 3420 the visual characteristics of the second zoom affordance (eg, 2622c in FIG. 35E in response to 3350f) (eg, change the current visual characteristics of the second zoom affordance to the second 2. Update, replace with new visual properties of zoom affordance of 2 (eg, change visual properties (eg, color, text, thickness, opacity, highlight)). In some embodiments, the visual property of the first zoom affordance and the visual property of the second zoom affordance are types of visual property (e.g., color, text, thickness, opacity, highlight). . In some embodiments, the visual properties are moved from the previously selected zoom affordance to the new zoom affordance (e.g., a selected zoom affordance indicating 1× and an unselected zoom affordance indicating 0.5, and In response to detecting the first gesture, the zoom affordance indicated 1× to indicate 1 and the zoom affordance indicated 5 to indicate .5× (eg, "x" moves between affordances). In the embodiment of , the size of the text changes with the zoom level of the selected affordance (e.g., 0.5x the size of the text when the affordance is selected is 1x the size of the text when the affordance is selected). size) (e.g., larger zoom levels have larger text.) By updating the visual properties of the zoom affordance while maintaining the visual properties of other zoom affordances, the selected Provide feedback to the user about the current state of the zoom affordance and the zoom affordance has been selected and the electronic device currently displays the representation at a zoom level that supports the zoom affordance and no other zoom affordance. Providing visual feedback to the user to indicate that the device is being operated/interacted with, e.g. A more efficient user-device interface (by sometimes helping the user to make appropriate inputs and reducing user error), which in turn allows the user to use the device more quickly and efficiently This will reduce device power usage and improve battery life.

いくつかの実施形態では、第1のズームアフォーダンスの視覚特性を変更することの一部として、第1のサイズから第2のサイズに第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)のサイズを変更する(例えば、増加させる)ことのうちの1つ以上を含む。いくつかの実施形態では、第1のズームアフォーダンスの第2のサイズは、第2のズームアフォーダンスの現在のサイズ(例えば、3350cに応じて、図35Bの2622c)(例えば、第2のズームアフォーダンスが現在表示されているサイズ)とは異なり、第1のズームアフォーダンスの色を第1の色から第2の色へと変更している。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1のサイズは、第2のズームアフォーダンスの現在のサイズと同じサイズである。いくつかの実施形態では、電子デバイスは、第1のサイズから第1のサイズとは異なる第2のサイズへと第1のズームアフォーダンスのサイズを増大する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of changing the visual characteristics of the first zoom affordance, the first zoom affordance (e.g., FIG. 35B in response to 3350c) from the first size to the second size. 2622b) of . In some embodiments, the second size of the first zoom affordance is the current size of the second zoom affordance (eg, 2622c in FIG. 35B in response to 3350c) (eg, the second zoom affordance is currently displayed size), changing the color of the first zoom affordance from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different than the current color of the second zoom affordance (eg, the color the second zoom affordance is currently displayed). In some embodiments, the first size of the first zoom affordance is the same size as the current size of the second zoom affordance. In some embodiments, the electronic device increases the size of the first zoom affordance from the first size to a second size different than the first size. Providing feedback to the user as to the current state of the selected zoom affordance by updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, and the zoom affordance being selected and electronic Provide visual feedback to the user indicating that the device is currently displaying a representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスの色を第1の色から第2の色に変更する。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1の色は、第2のズームアフォーダンスの現在の色と同じ色である。いくつかの実施形態では、電子デバイスは、第1の色から第1の色とは異なる第2の色へと第1のズームアフォーダンスの色を変更する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the electronic device changes the color of the first zoom affordance from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different than the current color of the second zoom affordance (eg, the color the second zoom affordance is currently displayed). In some embodiments, the first color of the first zoom affordance is the same color as the current color of the second zoom affordance. In some embodiments, the electronic device changes the color of the first zoom affordance from the first color to a second color different from the first color. Providing feedback to the user as to the current state of the selected zoom affordance by updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, and the zoom affordance being selected and electronic Provide visual feedback to the user indicating that the device is currently displaying a representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示している(例えば、第1のズームレベルで表示されるようにカメラユーザインタフェースを更新する)間に、電子デバイスは、第1のズームアフォーダンスに向けられた第2のジェスチャを受信する。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応じて、かつ第1のズームアフォーダンスが第1のそれぞれの基準(例えば、2622b)を満たすとの判定に従って、電子デバイスは、第4のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示する(例えば、第1のズームレベルで表示されるように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第1のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができるアフォーダンスのタイプであるときに満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の位置(例えば、中心位置)上に表示される。特定のアフォーダンス上の複数の入力を受信したことに応じて、表現を異なるズームレベルに更新することにより、ユーザインタフェースを雑然とさせることなく、あるズームアフォーダンスが電子デバイスのズームレベル間で変更できるように、デバイスの追加のコントロールを提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Some embodiments display a second representation of at least a portion of the field of view of one or more cameras at a second zoom level (e.g., .5x, 1x, 2x) (e.g., While updating the camera user interface to be displayed at the first zoom level, the electronic device receives a second gesture directed at the first zoom affordance. In some embodiments, in response to receiving a second gesture (e.g., 3350d, 3550g) directed at the first zoom affordance, and the first zoom affordance reaches the first respective criterion (e.g., , 2622b), the electronic device renders a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level (eg, .5×, 1×, 2×). Display (eg, update the camera user interface to display at the first zoom level). In some embodiments, the first respective criteria include one or more criteria that are met when the zoom affordance is a type of affordance that can cycle through zoom levels, and the zoom affordance includes multiple zooms. The affordance is displayed at a particular location (eg, center location) and the zoom affordance is displayed over a particular location (eg, center location) on the camera user interface. Allow a zoom affordance to change between electronic device zoom levels without cluttering the user interface by updating the representation to different zoom levels in response to receiving multiple inputs on the particular affordance. to provide additional control of the device. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応じて、かつ第1のズームアフォーダンスが第2のそれぞれの基準(例えば、2622c)を満たすとの判定に従って、電子デバイスは、第4のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することをやめ、かつ第2のズームレベル(例えば、以前のズームレベル)で、1つ以上のカメラの視野の一部分の第2の表現の表示を維持する(例えば、ズームレベルを変更しない)。いくつかの実施形態では、第2のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができないアフォーダンスのタイプであるときに満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置でない、中心位置の左又は右、最左端又は最右端のズームアフォーダンス)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の位置(例えば、中心の左又は右)上に表示される。特定のアフォーダンス上で複数の入力を受信したことに応じて、表現を異なるズームレベルに更新することをやめることにより、アフォーダンスが複数のズームレベルに進むために使用されることができず、かつあるズームレベルのみに関連付けられていることをユーザが迅速に判定する視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to receiving a second gesture (e.g., 3350d, 3550g) directed at the first zoom affordance, and the first zoom affordance reaches the second respective criterion (e.g., , 2622c) is satisfied, the electronic device ceases to display a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, and the second zoom level ( Maintain the display of the second representation of the portion of the field of view of the one or more cameras (eg, at the previous zoom level) (eg, do not change the zoom level). In some embodiments, the second respective criteria include one or more criteria that are met when the zoom affordance is a type of affordance that cannot cycle through zoom levels, and the zoom affordance is a multiple zoom affordance. The affordance is displayed at a specific location (e.g., left or right of center position, leftmost or rightmost zoom affordance, not centered), and the zoom affordance is displayed at a particular location (e.g., left of center) on the camera user interface. or right) is displayed above. By refraining from updating the representation to different zoom levels in response to receiving multiple inputs on a particular affordance, the affordance cannot be used to advance to multiple zoom levels, and Provides visual feedback that the user quickly determines is associated only with zoom level. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1のジェスチャは、第1のタイプのジェスチャ(例えば、タップ)である。いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスに向けられた第3のジェスチャ(例えば、3350h)を受信する。いくつかの実施形態では、第3のジェスチャは、ジェスチャの第1のタイプ(例えば、タップ)とは異なる第2のタイプのジェスチャ(例えば、プレスアンドホールドジェスチャ又は上スワイプジェスチャ)である。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第3のジェスチャを受信したことに応じて、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するためのコントロール(例えば、3328)(例えば、スクロールホイール、スライダ)を表示する。いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールは、第1の現在表示されている表現の現在のズームレベルの第1のインジケーション(例えば、図33Iの3328a1)を含む。いくつかの実施形態では、コントロールは、視覚表現(例えば、コントロール上の第1及び第2のズームレベル(又は複数のアフォーダンス内の各アフォーダンスに対応する他のズームレベル)のテキストインジケーション((例えば、.5×、1×、2×)))を有する。アイコンに向けられたタップジェスチャに関連付けられた動作を実行することないが、ユーザがアフォーダンスに向かうスワイプ又は長いプレスジェスチャを提供すると、表現のズームレベルを変更するコントロールを表示することにより、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、ユーザが選択されたズームアフォーダンスに対応しないズームレベルで表現を表示できないことをユーザが同時に認識できるようにすることによって、デバイスの更なるコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first gesture is a first type gesture (eg, tap). In some embodiments, the electronic device receives a third gesture (eg, 3350h) directed at the first zoom affordance. In some embodiments, the third gesture is a second type of gesture (eg, press and hold gesture or swipe up gesture) that is different from the first type of gesture (eg, tap). In some embodiments, in response to receiving a third gesture directed at the first zoom affordance, the electronic device displays a control for changing the zoom level of the first currently displayed representation. (eg, 3328) to display (eg, scroll wheel, slider). In some embodiments, the control for changing the zoom level of the first currently displayed representation is a first indication of the current zoom level of the first currently displayed representation (eg, FIG. 33I 3328a1) of In some embodiments, the control has a visual representation (e.g., first and second zoom levels on the control (or other zoom levels corresponding to each affordance in the plurality of affordances)) text indication (e.g., , .5×, 1×, 2×))). It does not perform the action associated with the tap gesture directed at the icon, but if the user provides a swipe or long press gesture towards the affordance, the user's intent is displayed by displaying a control that changes the zoom level of the representation. by helping to avoid performing actions without a zoom affordance, and at the same time allowing the user to recognize that the representation cannot be displayed at a zoom level that does not correspond to the selected zoom affordance; Give the user more control over the device. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示している間に、電子デバイスは、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)(例えば、調整可能なコントロールに向けられたスワイプ又はドラッグジェスチャ)を受信する。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャを受信したことに応じて、電子デバイスは、ズームレベルを変更するコントロール上に第5のズームレベルの第2のインジケーション(例えば、図33Hの3328a1)(例えば、特定のズームレベルが選択されるインジケーション)を表示し、かつ第5のズームレベルで、1つ以上のカメラの視野の第4の表現(例えば、630)を表示する。いくつかの実施形態では、第1のインジケーションは、表示を停止される。いくつかの実施形態では、第1のインジケーションは、現在表示されている表現の現在のズームレベルの位置から第5のズームレベルへ動く。いくつかの実施形態では、第4の表現を、以前に表示表現の表示に置き換える。 In some embodiments, while displaying a control for changing the zoom level of the first currently displayed representation, the electronic device performs a fourth gesture ( 3350i) (eg, a swipe or drag gesture directed at an adjustable control). In some embodiments, in response to receiving a fourth gesture directed at the zoom level changing control, the electronic device moves a second gesture at a fifth zoom level over the zoom level changing control. Display an indication (e.g., 3328a1 in FIG. 33H) (e.g., an indication that a particular zoom level is selected), and at a fifth zoom level, display a fourth representation of the field of view of one or more cameras (e.g., , 630). In some embodiments, the first indication is deactivated. In some embodiments, the first indication moves from the current zoom level position of the currently displayed representation to a fifth zoom level. In some embodiments, the fourth representation replaces the representation of the previously displayed representation.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルの第1のインジケーション(例えば、3328a1)は、第1の現在表示されている表現のズームレベルを変更するコントロール上の選択されたズームレベルに対応する位置(例えば、中央位置)に表示される。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられたジェスチャが受信されるとき、新しいズームレベルは、選択されたズームレベルに対応する位置に表示され、かつ現在(例えば、以前に)選択されたズームレベルのズームレベルは、現在表示されている表現のズームレベルを変更するコントロール上の別の位置に表示される。現在表示されている表現のズームレベルを変更するコントロールを、現在表示されている表現のズームレベルで更新することであって、ズームレベルは、ズームコントロール上の所定の位置に表示される、更新することにより、ユーザは、現在表示されている表現のズームレベルを迅速に判定することができ、かつ現在表示されている表現の現在のズームレベルを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the first indication of the zoom level of the first currently displayed representation (eg, 3328a1) is on a control that changes the zoom level of the first currently displayed representation. It is displayed at a position (eg, center position) corresponding to the selected zoom level. In some embodiments, when a gesture directed at a control that changes the zoom level is received, the new zoom level is displayed at a position corresponding to the selected zoom level and the current (eg, previously) The zoom level of the selected zoom level is displayed in another position on the control that changes the zoom level of the currently displayed representation. Updating a control that changes the zoom level of the currently displayed representation with the zoom level of the currently displayed representation, where the zoom level is displayed in place on the zoom control. This allows the user to quickly determine the zoom level of the currently displayed representation and provides visual feedback to the user indicating the current zoom level of the currently displayed representation. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するためのコントロール(例えば、3328)は、回転可能なユーザインタフェース要素(例えば、仮想的に回転可能な車輪又はダイヤル)である。 In some embodiments, the control (eg, 3328) for changing the zoom level of the first currently displayed representation is a rotatable user interface element (eg, a virtual rotatable wheel or dial ).

いくつかの実施形態では、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3228)(例えば、スクロールホイール、スライダ)を表示し、複数のズームアフォーダンス(例えば、2622)の表示を、第1の現在表示されている表現のズームレベルを変更するコントロールの表示に置き換えること(例えば、又は表示を停止すること)を含む。ズームレベルアフォーダンスを、ズームアフォーダンスを変更するコントロールに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができず、及び拡張されたコントロールを提供する(例えば、ズームアフォーダンスよりも大きいズームレベルに変化することができる)ことをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device displays controls (e.g., 3228) (e.g., scroll wheels, sliders) that change the zoom level of the first currently displayed representation, and multiple zoom affordances (e.g., , 2622) with the display of controls for changing the zoom level of the first currently displayed representation (eg, or stopping the display). Replacing zoom level affordances with controls that modify zoom affordances to help avoid users unintentionally performing actions, and at the same time cluttering the UI with additional zoom affordances. by allowing the user to perceive that there is no zoom affordance, that the zoom affordance cannot be used, and that it provides extended control (e.g., the ability to change to a zoom level greater than the zoom affordance). provide the user with more control over By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping users make appropriate inputs and reducing user errors), and by enabling users to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では、第3のジェスチャ(例えば、3350h)は、第1の方向の移動を含む(例えば、第1の方向に向けられる)。いくつかの実施形態では、第4のジェスチャ(例えば、3350i)は、第1の方向(例えば、第2の方向は、第1の方向に対して相対的に直角な、反対側でない、及び/又は平行ではない)とは異なる第2の方向の移動を含む(例えば、第2の方向に向けられる)。 In some embodiments, the third gesture (eg, 3350h) includes movement in a first direction (eg, directed in a first direction). In some embodiments, the fourth gesture (eg, 3350i) is directed in the first direction (eg, the second direction is relatively perpendicular to the first direction, not opposite, and/or or non-parallel).

いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)を受信した後に、電子デバイスは、第4のジェスチャのリフトオフを検出する。いくつかの実施形態では、第4のジェスチャのリフトオフを検出した後に、かつ所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないとの判定に従って、電子デバイスは、ズームレベルを変更するコントロールを表示することを停止する。いくつかの実施形態では、所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないとの判定に従って、電子デバイスは、ズームレベルを変更するコントロールを表示することをやめる又は停止する。ズームアフォーダンスを変更するコントロールを、ズームレベルアフォーダンスに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを支援すること、及び同時に、追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができ、かつ表現の追加の表示を提供することをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザができる。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after receiving a fourth gesture (eg, 3350i) directed to a control that changes the zoom level, the electronic device detects liftoff of the fourth gesture. In some embodiments, after detecting lift-off of the fourth gesture and following determining that there is no gesture directed at the control to change the zoom level within a predetermined time frame, the electronic device changes the zoom level to Stop showing the control you want to change. In some embodiments, the electronic device ceases or stops displaying the zoom level changing control upon determining that there has been no gesture directed at the zoom level changing control within a predetermined time frame. . Replacing controls that change zoom affordances with zoom level affordances to help users avoid unintentionally performing actions, and at the same time cluttering the UI with additional zoom affordances. Allowing the user more control over the device by allowing the user to perceive that the zoom affordance can be used without the need and provides additional viewing of the representation. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することの一部として、電子デバイスは、調整可能なコントロール上に複数の視覚インジケータ(例えば、図3Lの3228a~c)(例えば、複数のインジケータの第1の視覚インジケータは、調整可能なコントロール上の第1の位置に表示され、複数の視覚インジケータの第2の視覚インジケータは、調整可能なコントロール上の第1の位置とは異なる調整可能なコントロール上の第2の位置に表示される)を同時に表示する。いくつかの実施形態では、複数のズームアフォーダンスに対応する複数のズームレベル(例えば、2622)のそれぞれのズームレベル(例えば、複数のズームアフォーダンス(例えば、第1のズームアフォーダンス及び第2のズームアフォーダンス)のそれぞれに対応する各ズームレベル(例えば、第1のズームアフォーダンスの第2のズームレベル、第2のズームアフォーダンスの第3のズームレベル)は、複数の視覚インジケータの異なる対応する視覚インジケータによって表される(例えば、第1のズームアフォーダンスは、第1のインジケータによって表される、第2のズームアフォーダンスは、第2のインジケータによって表される)。いくつかの実施形態では、複数の視覚インジケータのそれぞれは、他の視覚インジケータ(例えば、固有のテキスト(例えば、0.5×、1×、2×)、色、サイズ)とは異なる固有の視覚特性を有する。ズームレベルを調整するコントロール上にズームアフォーダンスのズームレベルを表示することにより、ズームアフォーダンスに関連する現在のズームレベルについてのフィードバックをユーザに提供し、かつズームレベルがズームアフォーダンスとともに変化されると、表現のうちのより多くが表示されるように、コントロールを使用することなく、ユーザが現在表示されている表現のズームレベルを変更することができることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying controls for changing the zoom level of the first currently displayed representation, the electronic device displays multiple visual indicators (e.g., 3L 3228a-c) (e.g., a first visual indicator of the plurality of indicators is displayed at a first position on the adjustable control and a second visual indicator of the plurality of visual indicators is displayed on the adjustable control (displayed at a second position on the adjustable control that is different from the first position above) at the same time. In some embodiments, each zoom level (eg, multiple zoom affordances (eg, a first zoom affordance and a second zoom affordance) of multiple zoom levels (eg, 2622) corresponding to multiple zoom affordances. (e.g., the second zoom level of the first zoom affordance, the third zoom level of the second zoom affordance) corresponding to each of the is represented by a different corresponding visual indicator of the plurality of visual indicators. (e.g., a first zoom affordance is represented by a first indicator, a second zoom affordance is represented by a second indicator, etc.) In some embodiments, each of the multiple visual indicators has unique visual characteristics that differ from other visual indicators (e.g., intrinsic text (e.g., 0.5x, 1x, 2x), color, size).Zoom over controls that adjust the zoom level Displaying the zoom level of the affordance provides feedback to the user about the current zoom level relative to the zoom affordance, and as the zoom level changes with the zoom affordance more of the representation is displayed. Provide visual feedback to the user indicating that the user can change the zoom level of the currently displayed representation, without using the controls, such as providing improved visual feedback to the user. This improves the usability of the device and improves the user-device interface (e.g., by helping the user to provide appropriate input and reducing user error when operating/interacting with the device). is more efficient, which in turn reduces device power usage and improves battery life by enabling users to use the device more quickly and efficiently.

いくつかの実施形態では、第1のジェスチャを受信したことに応じて、かつ第1のジェスチャが複数のズームアフォーダンス(例えば、3350b)のうちの少なくとも1つに向けられておらず、かつ第1の表現の第1の部分に向けられているとの判定に従って、電子デバイスは、第1のジェスチャの位置に焦点を合わせるように電子デバイスを構成する(かつ任意選択的に、第1のジェスチャの位置での1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を設定する)。 In some embodiments, in response to receiving the first gesture, and the first gesture is not directed at at least one of the plurality of zoom affordances (eg, 3350b), and the first The electronic device configures the electronic device to focus on the position of the first gesture (and optionally, the position of the first gesture). setting one or more other camera settings, such as exposure or white balance, based on the field-of-view characteristics of one or more cameras at the location).

いくつかの実施形態では、第1のジェスチャを受信したことに応じて、かつ第1のジェスチャが複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ第1の表現(例えば、3350a)の第2の部分に向けられているとの判定に従って、電子デバイスは、第1のジェスチャの位置に焦点を合わせるように電子デバイスを構成することをやめる(かつ任意選択的に、第1のジェスチャの位置での1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を設定することをやめる)。いくつかの実施形態では、第2の部分は、第2の領域内に表示される。いくつかの実施形態では、第2の領域は、第1の領域と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 In some embodiments, in response to receiving the first gesture, and the first gesture is not directed at at least one of the plurality of zoom affordances, and the first representation (e.g., 3350a), the electronic device ceases to configure the electronic device to focus on the position of the first gesture (and optionally, the first setting one or more other camera settings, such as exposure or white balance, based on the field-of-view characteristics of one or more cameras at the position of the gesture of ). In some embodiments, the second portion is displayed within the second region. In some embodiments, the second region is visually distinct from the first region (eg, has a darker appearance) (eg, halfway over the second portion of the field of view of the one or more cameras). with a transparent overlay). In some embodiments, the second region has a darker appearance compared to the first region. In some embodiments, the second region is located above and/or below the first region within the camera user interface.

いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第2の表現は、1つ以上のカメラの第1のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180b)(例えば、第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第3の表現は、1つ以上のカメラの第2のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180c)(例えば、第2のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、第1のカメラは、第2のカメラとは異なる(例えば、第1のタイプのカメラは、第2のタイプのカメラとは異なる;第1のカメラのレンズは、キャプチャする(例えば、又は第2のカメラのレンズとは異なる幅の少なくとも1つの画像をキャプチャできる(例えば、キャプチャするように構成された))。 In some embodiments, the second representation of at least a portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of the first camera of the one or more cameras (e.g., 3180b in FIG. 31 ) (e.g., cameras of the first type (e.g., cameras with different lenses of different widths (e.g., ultra-wide-angle, wide-angle, telephoto cameras)). In some embodiments, the field of view of one or more cameras A third representation of at least a portion is a representation of at least a portion of a second camera field of view of the one or more cameras (eg, 3180c in FIG. 31) (eg, a second type of camera (eg, different width (e.g., ultra-wide-angle, wide-angle, telephoto cameras).In some embodiments, the first camera is different from the second camera (e.g., the first type of camera is , different from the second type of camera; configured)).

いくつかの実施形態では、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することの一部として、電子デバイスは、第2のズームレベルが第6のズームレベル(例えば、0.5×ズームレベル)であるとの判定に従って(及び/又は1つ以上のカメラの視野の一部分が第1のタイプのカメラの視野の一部分であるとの判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ))、第2の表現の一部分(例えば、領域604)を第1の視覚外観(例えば、半透明の、第2の視覚外観よりも不透明度が低い)で表示し、第2のズームレベルが第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って(及び/又は1つ以上のカメラの視野の一部分が第1のタイプのカメラとは異なる第2のタイプのカメラの視野の一部分であるとの判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ)(例えば、第1のタイプのカメラよりも狭いレンズ(例えば、望遠写真)を有するカメラ))、第2の表現の一部分(例えば、領域602及び606)を第1の視覚外観とは異なる第2の視覚外観(例えば、グレーアウト、ブラックアウト、第1の視覚外観よりも高い不透明度)で表示する。いくつかの実施形態では、電子デバイスは、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、図29A~図29Pで上述された方法/技術及び図30A~図30Cで論じられた方法3000のうちの1つ以上に基づいて、第2の表現を表示することを含む)。 In some embodiments, as part of displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level, the electronic device determines that the second zoom level is a sixth (e.g., 0.5x zoom level) (and/or according to determining that a portion of the field of view of one or more cameras is a portion of the field of view of a first type of camera ( (e.g., a camera with a wider lens than the second type of camera (e.g., an ultra-wide-angle lens)), a portion of the second representation (e.g., region 604) is given a first visual appearance (e.g., translucent, (and/or one or more camera is part of the field of view of a second type camera different from the first type camera (e.g., a lens wider than the second type camera (e.g., an ultra-wide-angle lens) (e.g., a camera with a narrower lens than a camera of the first type (e.g., telephotography)), a portion of the second representation (e.g., regions 602 and 606) with the first visual appearance and displays with a different second visual appearance (eg, grayed out, blacked out, higher opacity than the first visual appearance). In some embodiments, the electronic device displays a second representation of at least a portion of the field of view of one or more cameras at a second zoom level, the methods/techniques described above in FIGS. 29A-29P and (including displaying a second representation based on one or more of the methods 3000 discussed in FIGS. 30A-30C).

いくつかの実施形態では、複数のズームアフォーダンスは、第3のズームアフォーダンス(例えば、特定のズームレベル(例えば、第9のズームレベル)に対応するアフォーダンス)を含む。いくつかの実施形態では、第1、第2、及び第3のズームアフォーダンスは、異なるズームレベルに対応する(例えば、第1、第2、及び第3のズームアフォーダンスの選択により、異なる表現を表示させ、各表現は、異なるズームレベルを有する)。いくつかの実施形態では、電子デバイスは、第2の現在表示されている表現のズームレベルを変更する要求を受信する。いくつかの実施形態では、電子デバイスは、ピンチ又はデピンチジェスチャを検出することにより、現在表示されている表現のズームレベルを変更する要求を受信し、かつ調整可能なズームコントロールの選択を検出する。いくつかの実施形態では、第2の現在表示されている表現のズームレベルを第8のズームレベルに変更する要求(例えば、3350i、3350p、3350q)を受信したことに応じて、電子デバイスは、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×~1×(例えば、1×未満)などの範囲)内にあるとの判定に従って、第1のズームアフォーダンス(例えば、2622b)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622j)の表示に(例えば、第1のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第2のズーム値範囲(例えば、1×を上回る及び2×未満の値などの第2のズーム値範囲)内にあるとの判定に従って、第2のズームアフォーダンス(例えば、2622c)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622g)の表示に(例えば、第2のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第3のズーム値範囲(例えば、2×を上回る)内にあるとの判定に従って、第3のズームアフォーダンス(例えば、2622a)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622d)の表示に(例えば、第3のズームアフォーダンスの位置で)置き換える。いくつかの実施形態では、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×~1×(例えば、1×などの閾値を下回る)などの範囲)内にないとの判定に従って、電子デバイスは、第2又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する。いくつかの実施形態では、第2及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第2のズーム値範囲(例えば、1×~2×)内にないとの判定に従って、電子デバイスは、第1又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第2のズームアフォーダンスを表示する(又は第2のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第3のズーム値範囲(例えば、例えば、2×以上)内にないとの判定に従って、電子デバイスは、第1又は第2のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1、第2、第3、及び第4のズームアフォーダンスは、互いに視覚的に異なる(例えば、テキストが異なる(例えば、0.5×、1×、1.7×、2×))。いくつかの実施形態では、第2又は第3のズームアフォーダンスを維持する。所定の条件が満たされているときにのみ、ズームアフォーダンスを、ズームアフォーダンスに置き換えることを適用することにより、ユーザは、デバイスが現在のズームレベルで表現を表示するために使用されている、カメラに対応するズームレベルを迅速に認識することができ、各アフォーダンスは、異なるカメラに対応する。デバイス600は、特定のズームレベルでメディアをキャプチャするために現在使用されており、ユーザは、ユーザが必要であればこれらのズームレベルに容易に切り替えることができるように、現在表示されている表現の現在のズームレベルの範囲内にない所定のズームレベルを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the multiple zoom affordances include a third zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a ninth zoom level)). In some embodiments, the first, second, and third zoom affordances correspond to different zoom levels (e.g., selection of the first, second, and third zoom affordances display different representations). and each representation has a different zoom level). In some embodiments, the electronic device receives a request to change the zoom level of the second currently displayed representation. In some embodiments, the electronic device receives a request to change the zoom level of the currently displayed representation by detecting a pinch or de-pinch gesture and detects selection of an adjustable zoom control. . In some embodiments, in response to receiving a request to change the zoom level of the second currently displayed representation to an eighth zoom level (eg, 3350i, 3350p, 3350q), the electronic device: A first zoom affordance (eg, , 2622b) is replaced (eg, at the position of the first zoom affordance) by a display of a fourth zoom affordance (eg, 2622j) corresponding to the eighth zoom level, the eighth zoom level being the second (e.g., a second zoom value range, such as values greater than 1× and less than 2×), displays the second zoom affordance (e.g., 2622c) at the eighth (eg, at the position of the second zoom affordance), and the eighth zoom level corresponds to a third zoom value range (eg, 2× ) to display a third zoom affordance (e.g., 2622a) to display a fourth zoom affordance (e.g., 2622d) corresponding to the eighth zoom level (e.g., the third at a zoom affordance position of 3). In some embodiments, the eighth zoom level must be within the first zoom value range (eg, such as 0.5× to 1× (eg, below a threshold such as 1×)). the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance at a position of the zoom affordance that is not the second or third zoom affordance). , maintain the second and third zoom affordances, hi some embodiments, electronic The device displays the second zoom affordance (or maintains the display of the second zoom affordance) at a zoom affordance position that is not the first or third zoom affordance.In some embodiments, the first and third zoom affordances are not displayed. maintain a third zoom affordance, hi some embodiments, upon determining that the eighth zoom level is not within a third zoom value range (eg, greater than or equal to 2×), the electronic device Display the first zoom affordance (or maintain the display of the first zoom affordance) at the position of the zoom affordance that is not the first or second zoom affordance. 3 and 4 zoom affordances are visually different from each other (e.g., different text (e.g., 0.5x, 1x, 1.7x, 2x)). Maintain Zoom Affordance 2 or 3. By applying the replacement of zoom affordances with zoom affordances only when a predetermined condition is met, the user will be able to see how the device will render at the current zoom level. One can quickly recognize the zoom level corresponding to the camera being used for viewing, each affordance corresponding to a different camera, and the device 600 is currently configured to capture media at a particular zoom level. is used to allow the user to quickly change a given zoom level that is not within the current zoom level of the currently displayed representation so that the user can easily switch to these zoom levels if desired. Improve device usability by performing optimized actions when a set of conditions are met without requiring further user input (e.g., make the user-device interface more efficient (by helping the user to provide appropriate input when operating/interacting with the device and reducing user error); Reduce power usage and improve device battery life by enabling faster and more efficient use.

方法3400に関して上述された処理(例えば、図34A~図34B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3600、3800、4000、及び4200は、方法3400を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3400に関連して上述したように、1つ以上の入力に応じて、カメラユーザインタフェースのズームレベルを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 34A-34B) described above with respect to method 3400 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3600, 3800, 4000, and 4200 are described above with reference to method 3400. Optionally includes one or more of the characteristics of various methods. For example, method 3200 optionally employs changing the zoom level of the camera user interface in response to one or more inputs, as described above with respect to method 3400. For the sake of brevity, these details are not repeated below.

図35A~図35Iは、いくつかの実施形態による、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図36A~図36Bにおける処理を含む、以下で説明する処理を例示するために使用される。 35A-35I illustrate exemplary user interfaces for accessing media capture controls using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 36A-36B.

図35Aは、ディスプレイの上部からディスプレイの底部まで延びるライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 35A shows an electronic device 600 displaying a live preview 630 extending from the top of the display to the bottom of the display. Live preview 630 is based on images detected by one or more camera sensors. In some embodiments, live preview 630 does not extend to the top and/or bottom of device 600 . In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 . In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 .

図35Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。この実施例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。 The camera user interface of FIG. 35A includes an indicator area 602 and a control area 606 that are superimposed over the live preview 630 so that the indicators and controls can be displayed simultaneously with the live preview 630 . Camera display area 604 does not substantially overlap with indicators or controls. In this example, live preview 630 includes a dog on a person's shoulder in the surrounding environment.

図35Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びモード-設定スイッチャアフォーダンス3502を含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。以下で論じるように、モード-設定スイッチャアフォーダンス3502は、選択されると、デバイス600に、カメラモードアフォーダンス620の表示と、現在選択されているカメラモードの特定のカメラ設定アフォーダンス(例えば、626)の表示との間を切り替えさせる。 As shown in FIG. 35A, indicator region 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator area 602 includes flash indicator 602 a and mode-setting switcher affordance 3502 . Flash indicator 602a indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). As discussed below, mode-setting switcher affordance 3502, when selected, causes device 600 to display camera mode affordances 620 and specific camera setting affordances (eg, 626) for the currently selected camera mode. to switch between displays.

図35Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この実施例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。 As shown in FIG. 35A, camera display area 604 includes live preview 630 and zoom affordance 2622, which includes 0.5× zoom affordance 2622a, 1× zoom affordance 2622b, and 2× zoom affordance 2622c. . In this example, 0.5x zoom affordance 2622a is selected, indicating that live preview 630 is presented at the 0.5x zoom level.

図35Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図35Aにおいて、カメラモードアフォーダンス620a~620d及び620fが表示され、「Photo」カメラモードは、テキストを太字にすること、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることによって、カメラが動作している現在のモードであるとして示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイスは、特定のカメラモードのカメラ設定を使用して、(例えば、シャッターアフォーダンス610上の入力を検出したことに応じて)メディアをキャプチャするように構成される。図35Aでは、デバイス600は、カメラディスプレイ領域604に対応する位置での上向きスワイプジェスチャ3550a(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。あるいは、図35Aで、デバイス600は、インジケータ領域602内に配置されている、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ3550bを検出する。 As shown in FIG. 35A, control area 606 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Control area 606 includes camera mode affordance 620 , a portion of media collection 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected and allows the user to change camera modes. In FIG. 35A, camera mode affordances 620a-620d and 620f are displayed, and the "Photo" camera mode is displayed by bolding the text and/or centering photo camera mode affordance 620c in the center of control area 606. It is indicated as being the current mode in which the camera is operating. When a camera mode is currently selected (or the electronic device is operating in camera mode), the electronic device uses the camera settings for the particular camera mode (e.g., detects input on shutter affordance 610 configured to capture media). In FIG. 35A, device 600 detects an upward swipe gesture 3550a at a location corresponding to camera display area 604 (eg, an upward swipe gesture from control area 606 toward indicator area 602). Alternatively, in FIG. 35A, device 600 detects tap gesture 3550b at a position corresponding to mode-set switcher affordance 3502, located within indicator region 602. Alternatively, in FIG.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550b(例えば、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ)を検出したことに応じて、デバイス600は、カメラディスプレイ領域604を上にシフトし、これは、ズームアフォーダンス2622を上にシフトすることを含む。デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を上にシフトする。それにより、デバイス600がカメラディスプレイ領域604を上にシフトするとき、デバイス600は、インジケータ領域602の高さの高さを低減し、かつコントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの中心がモード-設定スイッチャアフォーダンス3502の中心とより位置合わせされるように、フラッシュインジケータ602aをシフトする。これを行うことにより、デバイス600は、カメラモードアフォーダンス620とカメラ設定アフォーダンス626との間で表示を切り替えている間に、インジケータ領域602内のインジケータの表示を維持する。更には、デバイス600は、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力に応じて、カメラ設定アフォーダンス626が表示され得るインジケーション)を含むことから、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力を検出したことに応じて、カメラモードアフォーダンスが表示され得るインジケーション)を表示するように、モード-設定スイッチャアフォーダンス3502を更新する。 As shown in FIG. 35B, in response to detecting an upward swipe gesture 3550a or a tap gesture 3550b (eg, a tap gesture at a position corresponding to the mode-setting switcher affordance 3502), the device 600 causes the camera display area 604 to move to the Shift up, which includes shifting the zoom affordance 2622 up. Device 600 shifts camera display area 604 up while maintaining the size and aspect ratio of camera display area 604 . Thereby, when the device 600 shifts the camera display area 604 up, the device 600 reduces the height of the indicator area 602 and increases the height of the control area 606 . In addition to reducing the height of indicator region 602 , device 600 shifts flash indicator 602 a so that the center of flash indicator 602 a is more aligned with the center of mode-setting switcher affordance 3502 . By doing this, device 600 maintains the display of indicators in indicator region 602 while switching display between camera mode affordance 620 and camera settings affordance 626 . Additionally, the device 600 displays an up arrow (eg, an indication that the camera user interface may be shifted up, or an indication that the camera settings affordance 626 may be displayed in response to an input on the mode-settings switcher affordance 3502). A downward pointing arrow (e.g., an indication that the camera user interface may be shifted down, or an indication that the camera mode affordance may be displayed in response to detecting an input on mode-setting switcher affordance 3502). Update the Mode-Set Switcher Affordance 3502 as indicated.

コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620を、第1の1組のカメラ設定アフォーダンスを含むカメラ設定アフォーダンス626に置き換える。第1の1組のカメラ設定アフォーダンスは、左から右へ、フラッシュモードコントロールアフォーダンス626a、低光モード動作コントロールアフォーダンス626g、アスペクト比コントロールアフォーダンス626c、アニメーション化された画像コントロールアフォーダンス626b、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む。デバイスが写真モードでメディアをキャプチャするように現在構成されているため、第1の1組のカメラ設定アフォーダンスが示される。いくつかの実施形態では、デバイスが写真モードではないカメラモードでメディアをキャプチャするように現在構成されているとき、第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスが示される。 In addition to increasing the height of control region 606, device 600 replaces camera mode affordance 620 with camera setting affordance 626, which includes a first set of camera setting affordances. The first set of camera setting affordances are, from left to right, flash mode control affordance 626a, low light mode motion control affordance 626g, aspect ratio control affordance 626c, animated image control affordance 626b, filter control affordance 626e, and timer control affordance 626d. A first set of camera setting affordances is shown because the device is currently configured to capture media in photo mode. In some embodiments, a second set of camera setting affordances different from the first set of camera setting affordances when the device is currently configured to capture media in camera mode other than photo mode. is shown.

図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bを検出したことに応じて、デバイス600はまた、1つ以上のカメラの視野を上にシフトする(ライブプレビュー630によって示された1つ以上のカメラの視野が維持され、かつシフトされない、図8A~図8Bに関連して上述した例とは異なる)。それにより、デバイス600は、図35Aに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるようにシフトする。例えば、図35Aのインジケータ領域602に表示されたちょう結び3540の一部分は、図35Bのインジケータ領域602に表示される。加えて、デバイス600は、図35Aに表示されなかったいくらかの視覚部分を図35Bのディスプレイ上にシフトする。例えば、図35Aのコントロール領域606に表示されたアームパッチ3538(例えば、ハート)の一部分は、図35Bのコントロール領域606に表示される。図35Bでは、デバイス600は、デバイスが、超広角レンズを有するカメラを使用して、メディアをキャプチャするように構成されるため、いくらかの新たに表示される視覚部分をディスプレイ上に、及びいくらかの以前に表示された視覚部分をディスプレイから外れるようにシフトし、これは、0.5×ズームレベルで表示されているライブプレビュー630によって明らかである(例えば、図31A~図31Bに関連する上記の考察を参照)。いくつかの実施形態では、デバイスが、超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されていない(例えば、デバイス600は、望遠写真レンズを使用してメディアをキャプチャするように構成される)とき、デバイス600は、デバイス600が2×ズームでメディアをキャプチャするように構成されるとき(例えば、ライブプレビュー630が図35Iのように2×ズームレベルで表示されるとき)など、いくらかの視覚部分をディスプレイ上に、及び/又はいくらかの視覚部分をディスプレイから外れるようにシフトしない。 As shown in FIG. 35B, in response to detecting an upward swipe gesture 3550a or a tap gesture 3550b, device 600 also shifts the field of view of one or more cameras up (the one shown by live preview 630). (Unlike the example described above in connection with FIGS. 8A-8B, where the field of view of the above cameras is maintained and not shifted). Device 600 thereby shifts some of the visual portion displayed in FIG. 35A off the display in FIG. 35B. For example, the portion of the bowknot 3540 displayed in indicator region 602 of FIG. 35A is displayed in indicator region 602 of FIG. 35B. Additionally, device 600 shifts some visual portions that were not displayed in FIG. 35A onto the display in FIG. 35B. For example, a portion of arm patch 3538 (eg, a heart) displayed in control region 606 of FIG. 35A is displayed in control region 606 of FIG. 35B. In FIG. 35B, device 600 has some newly displayed visual portions on the display and some The previously displayed visual portion is shifted off the display, which is evident by the live preview 630 being displayed at a 0.5x zoom level (e.g. See Discussion). In some embodiments, the device is not configured to capture media using a camera with an ultra-wide-angle lens (e.g., device 600 is configured to capture media using a telephoto photographic lens). 35I), device 600 is configured to capture media at 2x zoom (e.g., when live preview 630 is displayed at 2x zoom level as in FIG. 35I), and so on. , shift some visual portions on and/or off the display.

更には、図35Bに示すように、上向きスワイプジェスチャ3550aを検出した後の第1の時点で、デバイス600は、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出する。いくつかの実施形態では、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、上向きスワイプジェスチャ3550aのタッチ接触のリフトオフ)を検出する前に、上向きスワイプジェスチャ3550aの完了を検出する。いくつかの実施形態では、上向きスワイプジェスチャ3550aの完了は、上向きスワイプジェスチャ3550aのタッチ接触が、カメラディスプレイ領域604上の位置に対応する第1の位置からカメラディスプレイ領域604上の位置に対応する第2の位置までの閾値距離を動くと検出された後に発生し得る。 Further, as shown in FIG. 35B, at a first time after detecting swipe up gesture 3550a, device 600 detects completion of swipe up gesture 3550a or tap gesture 3550b. In some embodiments, the device 600 detects a lift-off of the swipe-up gesture 3550a (e.g., a touch contact lift-off of the swipe-up gesture 3550a using the touch-sensitive surface of the device 600) before detecting the swipe-up gesture 3550a. Detects the completion of In some embodiments, completion of swipe-up gesture 3550a occurs when the touch contact of swipe-up gesture 3550a moves from a first position corresponding to a position on camera display area 604 to a second position corresponding to position on camera display area 604. It can occur after being detected to move a threshold distance to two locations.

図35Bに示すように、デバイス600が上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出するとき、デバイス600は、デバイス600がカメラモードアフォーダンス620を、選択されたカメラモードについてのカメラ設定アフォーダンスに置き換えている(又は置き換えた)ことを示す、触知出力3560aを提供する。図35Bでは、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフを検出する。 As shown in FIG. 35B, when device 600 detects completion of swipe up gesture 3550a or tap gesture 3550b, device 600 replaces camera mode affordance 620 with camera settings affordance for the selected camera mode. provides a tactile output 3560a indicating that it has been replaced (or replaced). In FIG. 35B, device 600 detects a liftoff of upward swipe gesture 3550a.

図35Cに示すように、上向きスワイプジェスチャ3550aのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Cでは、デバイス600は、カメラディスプレイ領域604に対応する位置での左向きスワイプジェスチャ3550c(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35C, after detecting the liftoff of upward swipe gesture 3550a, device 600 no longer provides tactile output. In FIG. 35C, device 600 detects a left swipe gesture 3550c (eg, a swipe gesture that moves across camera display area 604 from left to right) at a location corresponding to camera display area 604. In FIG.

図35Dに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、第1の1組のカメラ設定アフォーダンス(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)を、左から右へ、フラッシュモードコントロールアフォーダンス626a、f値コントロールアフォーダンス626f、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む、第2の1組のカメラ設定アフォーダンスに置き換える。図35Dに示すように、第1の1組のカメラ設定アフォーダンスを第2の1組のカメラ設定アフォーダンスに置き換えるとき、デバイス600は、アニメーションを表示し、デバイス600は、カメラディスプレイ領域604を着色された(例えば、灰色、半透明)オーバーレイと重ね合わせ、ライブプレビュー630及び/若しくはディスプレイを暗くし、かつ/又はディスプレイ(ライブプレビュー630を含む)をぼかす。更には、図35Dでは、デバイス600は、第2の1組のカメラ設定アフォーダンス内にない第1の1組のカメラ設定アフォーダンスからの1つ以上のカメラ設定アフォーダンス(例えば、図35Cに示されたカメラ設定アフォーダンス626g、626c、626b)を暗色化、ぼかし、及び/又は収縮し得る。デバイス600は、第1の1組のカメラ設定アフォーダンス内になかった第2の1組のカメラ設定アフォーダンス(例えば、f値コントロールアフォーダンス626f)内にある、1つ以上のアフォーダンスを表示する(例えば、フェードイン又は成長する)。 As shown in FIG. 35D, in response to detecting a left swipe gesture 3550c, the device 600 activates a first set of camera setting affordances (eg, camera setting affordances 626a, 626g, 626c, 626e, and 626d). , from left to right, a second set of camera setting affordances, including flash mode control affordances 626a, f-value control affordances 626f, filter control affordances 626e, and timer control affordances 626d. As shown in FIG. 35D, when replacing the first set of camera setting affordances with the second set of camera setting affordances, the device 600 displays an animation and the device 600 colors the camera display area 604. overlay with a different (eg, gray, translucent) overlay, dim the live preview 630 and/or the display, and/or blur the display (including the live preview 630). Further, in FIG. 35D, device 600 selects one or more camera setting affordances from the first set of camera setting affordances that are not within the second set of camera setting affordances (eg, the camera setting affordances shown in FIG. 35C Camera setting affordances 626g, 626c, 626b) may be darkened, blurred, and/or contracted. Device 600 displays one or more affordances that are in a second set of camera setting affordances (eg, f-value control affordance 626f) that were not in the first set of camera setting affordances (eg, fade in or grow).

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、第2の1組のカメラ設定アフォーダンスを動かし、これにより、第2の1組のカメラ設定アフォーダンスは、ディスプレイの比較的中心に配置される。第2の1組のカメラ設定アフォーダンスが、より少ない数のアフォーダンスを含むため、フラッシュモードコントロールアフォーダンス626a及びタイマーコントロールアフォーダンス626dは、例えば、図35Cに各々がそれぞれ表示された位置よりもディスプレイの中心に近い位置に表示される。図35Eでは、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、ポートレートカメラモードで、したがって、ポートレートメディアをキャプチャする設定に対応する(又はポートレートカメラモードに従う)第2の1組のカメラ設定アフォーダンスでメディアをキャプチャするように構成される。いくつかの実施形態では、デバイス600が別のモード(例えば、ビデオモード)でメディアをキャプチャするように構成されるとき、高ダイナミックレンジイメージングカメラ設定アフォーダンスなどの、1つ以上の追加のアフォーダンスが表示される。 As shown in FIG. 35E, in response to detecting the left swipe gesture 3550c, the device 600 moves a second set of camera setting affordances such that the second set of camera setting affordances are displayed. is relatively centrally located. Because the second set of camera setting affordances includes a smaller number of affordances, flash mode control affordance 626a and timer control affordance 626d are, for example, more centered in the display than each is shown in FIG. 35C. displayed in close proximity. In FIG. 35E, in response to detecting left swipe gesture 3550c, device 600 is in portrait camera mode, and thus a second one corresponding to (or according to portrait camera mode) settings for capturing portrait media. Configured to capture media with a set of camera setting affordances. In some embodiments, one or more additional affordances, such as high dynamic range imaging camera setting affordances, are displayed when device 600 is configured to capture media in another mode (e.g., video mode). be done.

図35Aに戻ると、写真カメラモードアフォーダンス620cは、中心に置かれ、かつ選択され、ポートレートモードアフォーダンス620dは、選択されず、かつ写真カメラモードアフォーダンス620cの右側に隣接して表示される。それにより、図8E~図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、図35Aにおけるデバイス600上の左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600に、中心に置かれ、かつ選択されたようなポートレートモードアフォーダンス620d及び未選択であり、かつポートレートモードアフォーダンス620dの左に表示されたような写真カメラモードアフォーダンス620cを表示させる。更には、図8E~図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600を、ポートレートカメラモードで構成させる。それゆえ、デバイス600は、デバイス600がカメラモードアフォーダンス620(例えば、図8E~図8H)又はカメラ設定アフォーダンス626(例えば、35C~35E)を現在表示しているかどうかにかかわらず、左向き又は右向きスワイプジェスチャに応じて、メディアをキャプチャするように構成されるカメラモードに切り替える。更には、デバイス600が、左向き又は右向きスワイプジェスチャに応じて、メディアをキャプチャするように構成されるカメラモードに切り替えるとき、アフォーダンスのタイプ(例えば、カメラモードアフォーダンス620又はカメラ設定アフォーダンス626)は、ディスプレイ上に表示され続ける。換言すれば、左向き又は右向きスワイプジェスチャを検出する直前に、デバイス600がカメラモードアフォーダンス620を表示する場合、デバイス600は、左向き若しくは右向きスワイプジェスチャに応じて、カメラモードアフォーダンス620を、カメラ設定アフォーダンス626に置き換えず、又は逆もまた同様である。更には、同じ大きさの左又は右ジェスチャは、カメラモードアフォーダンス620が選択された現在のカメラモードアフォーダンス(例えば、写真モードアフォーダンス620c)で表示されるとき、又は選択されたモード(例えば、写真モード)に対応するカメラ設定アフォーダンス626(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)が表示されるときに、デバイス600が左又は右ジェスチャを受信するかどうかと同じ新しいモード(例えば、ポートレートモード)でメディアをキャプチャするようにデバイスを構成する。 Returning to FIG. 35A, photo camera mode affordance 620c is centered and selected, and portrait mode affordance 620d is unselected and displayed adjacent to the right of photo camera mode affordance 620c. 8E-8H, a left swipe gesture (eg, similar to gesture 3550c) on device 600 in FIG. It displays portrait mode affordance 620d as it is and selected and photo camera mode affordance 620c as it is unselected and displayed to the left of portrait mode affordance 620d. Further, as described above with respect to left swipe gesture 850g in FIGS. 8E-8H, a left swipe gesture (eg, similar to gesture 3550c) configures device 600 in portrait camera mode. Therefore, the device 600 can swipe left or right regardless of whether the device 600 is currently displaying a camera mode affordance 620 (eg, FIGS. 8E-8H) or a camera settings affordance 626 (eg, 35C-35E). Depending on the gesture, switch to a camera mode configured to capture media. Further, when device 600 switches to a camera mode configured to capture media in response to a left or right swipe gesture, the type of affordance (eg, camera mode affordance 620 or camera settings affordance 626) can be continue to appear on top. In other words, if device 600 displays camera mode affordance 620 immediately before detecting a left or right swipe gesture, device 600 displays camera mode affordance 620 and camera settings affordance 626 in response to the left or right swipe gesture. or vice versa. Furthermore, the left or right gestures of the same magnitude are displayed when camera mode affordance 620 is displayed in the current camera mode affordance selected (eg, photo mode affordance 620c) or in the selected mode (eg, photo mode affordance 620c). ) corresponding to the camera setting affordances 626 (e.g., camera setting affordances 626a, 626g, 626c, 626e, and 626d) are displayed, as well as whether the device 600 receives left or right gestures (e.g., Configure your device to capture media in portrait mode).

図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応じて、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む。更には、現在選択されている、ズームアフォーダンス2622aは、ズームアフォーダンス2622b及び2622cがカメラディスプレイ領域604内で表示を停止される間、左にシフトされた。更には、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス2622aの右に、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)を表示する。図35Eの更新されたライブプレビュー630は、図35Cのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、35Eの更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図35Cのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。図35Eでは、デバイス600は、カメラディスプレイ領域604に対応する位置での下向きスワイプジェスチャ3550d(例えば、インジケータ領域602からコントロール領域606に向かう下スワイプジェスチャ)を検出する。あるいは、図35Eで、デバイス600は、インジケータ領域602内に配置されている、モード-設定スイッチャアフォーダンス3502に対応する位置でのタップジェスチャ3550eを検出する。 In response to detecting left swipe gesture 3550c, device 600 displays a corrected set of indicators in indicator area 602, an updated live preview 630, and an updated control area 606, as shown in FIG. 35E. display. The corrected set of indicators includes previously displayed flash indicator 602a and newly displayed f-value indicator 602e. Additionally, the currently selected zoom affordance 2622 a was shifted to the left while zoom affordances 2622 b and 2622 c ceased to display within camera display area 604 . In addition, device 600 displays lighting effect controls 628 (which, when activated, can change the lighting effect) to the right of zoom affordance 2622a in camera display area 604 . The updated live preview 630 of Figure 35E provides a different visual effect compared to the live preview 630 of Figure 35C. For example, updated live preview 630 of 35E provides bokeh and/or lighting effects, while live preview 630 of FIG. 35C does not provide bokeh and/or lighting effects. In some embodiments, changing the camera mode (photo mode vs. portrait mode) changes the zoom of the object in live preview 630 . In some embodiments, the zoom of objects in live preview 630 does not change regardless of changing the camera mode (photo mode vs. portrait mode). In FIG. 35E, device 600 detects a downward swipe gesture 3550d at a location corresponding to camera display area 604 (eg, a downward swipe gesture from indicator area 602 toward control area 606). Alternatively, in FIG. 35E, device 600 detects tap gesture 3550e at a position corresponding to mode-set switcher affordance 3502, located within indicator region 602. Alternatively, in FIG.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応じて、デバイス600は、図35Bに示されたカメラユーザインタフェースの上シフトを反転してシフトする。具体的には、デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を下にシフトする。それにより、デバイス600がカメラディスプレイ領域604を下にシフトするとき、デバイス600は、インジケータ領域602の高さを増加させ、図35Aに示される元のそれらの元の高さに戻るようにコントロール領域606の高さを減少させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力を検出したことに応じて、カメラモードアフォーダンスが表示され得るインジケーション)を含むことから、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード-設定スイッチャアフォーダンス3502上の入力に応じて、カメラ設定アフォーダンス626が表示され得るインジケーション)を表示するように、モード-設定スイッチャアフォーダンス3502を更新する。コントロール領域606の高さを減少させることに加えて、デバイス600は、カメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換える。デバイス600がポートレートカメラモードでメディアをキャプチャするように構成されるため、デバイス600は、左にシフトされたポートレートカメラモードアフォーダンス620dを表示し、ここで、ポートレートカメラモード620dが、選択され、かつ中心に置かれるように表示され、及び写真カメラモード620c(例えば、図35Aに以前に選択された)が、ポートレートカメラモード620dの右に、選択されずに表示される。 As shown in FIG. 35F, in response to detecting a downward swipe gesture 3550d or a tap gesture 3550e, device 600 reverses and shifts the up shift of the camera user interface shown in FIG. 35B. Specifically, device 600 shifts camera display area 604 down while maintaining the size and aspect ratio of camera display area 604 . Thereby, when the device 600 shifts the camera display area 604 down, the device 600 increases the height of the indicator areas 602 and moves the control areas back to their original heights shown in FIG. 35A. Decrease the height of 606; In addition to increasing the height of the indicator region 602, the device 600 detects a downward pointing arrow (eg, an indication that the camera user interface may be shifted downward, or an input on the mode-setting switcher affordance 3502). In response to an indication that the camera user interface may be shifted up or an input on mode-setting switcher affordance 3502, the camera Update mode-setting switcher affordance 3502 to display an indication that setting affordance 626 may be displayed. In addition to reducing the height of control area 606 , device 600 replaces camera settings affordance 626 with camera mode affordance 620 . Because device 600 is configured to capture media in portrait camera mode, device 600 displays left-shifted portrait camera mode affordance 620d, where portrait camera mode 620d is selected. , and centered, and photo camera mode 620c (eg, previously selected in FIG. 35A) is displayed unselected to the right of portrait camera mode 620d.

図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応じて、デバイス600はまた、1つ以上のカメラの視野を下にシフトする。それにより、デバイス600は、図35Eに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるように/ディスプレイ上にシフトする。例えば、図35Eに表示されなかったインジケータ領域602内のちょう結び3540の一部分は、図35Fに表示され、図35Eに表示されたパッチ3538の一部分は、図35Fに表示されない。同様に、図35Bに関連して上述したように、デバイスが超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されているため、デバイス600は、いくらかの視覚部分をディスプレイ上に、及びいくらかの視覚部分をディスプレイ上に/から外れるようにシフトする。 In response to detecting downward swipe gesture 3550d or tap gesture 3550e, device 600 also shifts the field of view of one or more cameras downward, as shown in FIG. 35F. Device 600 thereby shifts some visual portion displayed in FIG. 35E off/on the display of FIG. 35B. For example, the portion of bowknot 3540 within indicator region 602 that was not displayed in FIG. 35E is displayed in FIG. 35F, and the portion of patch 3538 that was displayed in FIG. 35E is not displayed in FIG. 35F. Similarly, as described above in connection with FIG. 35B, the device 600 may have some visual portion on the display because the device is configured to capture media using a camera with an ultra-wide-angle lens. , and shift some visual parts on/off the display.

更には、図35Fに示すように、下向きスワイプジェスチャ3550dを検出した後の第1の時点で、デバイス600は、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出する。いくつかの実施形態では、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、下向きスワイプジェスチャ3550dのタッチ接触のリフトオフ)を検出する前に、下向きスワイプジェスチャ3550dの完了を検出する。いくつかの実施形態では、下向きスワイプジェスチャ3550dの完了は、下向きスワイプジェスチャ3550dのタッチ接触が、カメラディスプレイ領域604上の位置に対応する第1の位置からカメラディスプレイ領域604上の位置に対応する第2の位置までの閾値距離を動くと検出された後に発生し得る。 Further, as shown in FIG. 35F, at a first point after detecting downward swipe gesture 3550d, device 600 detects completion of downward swipe gesture 3550d or tap gesture 3550e. In some embodiments, device 600 detects downward swipe gesture 3550d before detecting liftoff of downward swipe gesture 3550d (eg, liftoff of touch contact of downward swipe gesture 3550d using the touch-sensitive surface of device 600). Detects the completion of In some embodiments, completion of downward swipe gesture 3550d occurs when the touch contact of downward swipe gesture 3550d moves from a first position corresponding to a position on camera display area 604 to a second position corresponding to position on camera display area 604. It can occur after being detected to move a threshold distance to two locations.

図35Fに示すように、デバイス600が下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出するとき、デバイス600は、デバイス600がカメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換えている(又は置き換えた)ことを示す、触知出力3560bを提供する。図35Fでは、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフを検出する。 As shown in FIG. 35F, when device 600 detects completion of downward swipe gesture 3550d or tap gesture 3550e, device 600 detects that device 600 has replaced (or has replaced) camera settings affordance 626 with camera mode affordance 620. ), providing a tactile output 3560b. In FIG. 35F, device 600 detects a liftoff of downward swipe gesture 3550d.

図35Gに示すように、下向きスワイプジェスチャ3550dのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Gでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する位置でのタップジェスチャ3550gを検出する。 After detecting the liftoff of downward swipe gesture 3550d, device 600 no longer provides tactile output, as shown in FIG. 35G. In FIG. 35G, device 600 detects tap gesture 3550g at a location corresponding to 0.5× zoom affordance 2622a.

図35Hに示すように、タップジェスチャ3550gを検出したことに応じて、デバイス600は、(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることにより)2×ズームレベルにライブプレビュー630のズームを更新し、かつ2×の現在のズームを示すように、ズームアフォーダンス2622を更新する。デバイス600は、図8N~図8Pのジェスチャ850o、850p、及び850qに関連して記載されたものと同様の技術を使用して、タップジェスチャ3550gに応答する。図35Hでは、デバイス600は、カメラディスプレイ領域604に対応する位置での右向きスワイプジェスチャ3550h(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。 As shown in FIG. 35H, in response to detecting tap gesture 3550g, device 600 detects 2× (eg, by switching camera sensors from a first camera sensor to a second camera sensor having a different field of view). Update the zoom of live preview 630 to the zoom level and update zoom affordance 2622 to indicate the current zoom of 2x. Device 600 responds to tap gesture 3550g using techniques similar to those described with respect to gestures 850o, 850p, and 850q of FIGS. 8N-8P. In FIG. 35H, device 600 detects right swipe gesture 3550h (eg, a swipe gesture moving across camera display area 604 from left to right) at a location corresponding to camera display area 604 .

図35Iに示すように、右向きスワイプジェスチャ3550hを検出したことに応じて、デバイス600は、右向きスワイプジェスチャ3550hの大きさに基づいて、カメラモードアフォーダンス620を右にシフトする。ここで、デバイス600は、写真モードアフォーダンス620cが未選択で、かつビデオモードアフォーダンス620bの右に留まる間に、ビデオモードアフォーダンス620bが選択され、かつ中心に置かれるように、右向きスワイプジェスチャ3550hがカメラモードアフォーダンス620を右にシフトするのに十分な大きさを有することを検出する。それにより、写真モードアフォーダンス620cは、右向きスワイプジェスチャ3550hの大きさのため、選択されないようにスキップされる。それにより、デバイス600は、ビデオメディアをキャプチャするように(又はビデオモードに従って)構成され、デバイスがポートレートメディアの代わりに、ビデオメディアをキャプチャするように構成されるため、デバイス600は、照明効果コントロール628を表示することを停止する。更には、右向きスワイプジェスチャ3550hを検出したことに応じて、デバイス600は、ズームアフォーダンス2622(例えば、アフォーダンス2622a、2622b、及び2622c)を再表示し、ここで、ライブプレビュー630が0.5×ズームレベルで表示されるため、0.5×ズームアフォーダンス2622aが選択される。 As shown in FIG. 35I, in response to detecting right swipe gesture 3550h, device 600 shifts camera mode affordance 620 to the right based on the magnitude of right swipe gesture 3550h. Here, device 600 performs right swipe gesture 3550h such that video mode affordance 620b is selected and centered while photo mode affordance 620c is unselected and remains to the right of video mode affordance 620b. Detect having sufficient magnitude to shift the mode affordance 620 to the right. Photo mode affordance 620c is thereby skipped from being selected due to the magnitude of right swipe gesture 3550h. Thereby, the device 600 is configured to capture video media (or according to the video mode), and since the device is configured to capture video media instead of portrait media, the device 600 can capture lighting effects. Stop displaying controls 628 . Further, in response to detecting right swipe gesture 3550h, device 600 redisplays zoom affordances 2622 (eg, affordances 2622a, 2622b, and 2622c), where live preview 630 zooms 0.5×. A 0.5× zoom affordance 2622a is selected because it is displayed in levels.

図36A~図36Bは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3600は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3600のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 36A-36B are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. Method 3600 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 3600 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法3600は、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3600 provides an intuitive way to access media capture controls using an electronic device. This method reduces the user's cognitive burden in accessing media controls, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to access media controls faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェースを表示する(3602)。カメラユーザインタフェースは、カメラディスプレイ領域(例えば、602)を含む(例えば、同時に表示する)。カメラディスプレイ領域は、1つ以上のカメラの視野の表現及びカメラコントロール領域(例えば、606)を含む。カメラユーザインタフェースはまた、カメラコントロール領域を含み、カメラコントロール領域は、第1の位置(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、電子デバイスに、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャさせるシャッターアフォーダンス)の上の位置)に1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む。いくつかの実施形態では、複数のカメラモード(例えば、ビデオ、写真、ポートレート、スローモーション、パノラマモードのうちの2つ以上の)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する対応する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されているときに、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第1のモードでメディアをキャプチャするように構成される。 An electronic device (e.g., 600) may include a display device and one or more cameras (e.g., one or more cameras (e.g., dual cameras, triple Including cameras, quad cameras, etc.)). The electronic device displays (3602) the camera user interface via the display device. The camera user interface includes (eg, displays simultaneously) a camera display area (eg, 602). The camera display area includes representations of the field of view of one or more cameras and a camera control area (eg, 606). The camera user interface also includes a camera control area that, when activated, causes the electronic device to display content displayed within the camera display area in a first position (e.g., an image capture affordance (e.g., an image capture affordance)). A first plurality of camera mode affordances (e.g., 620) that indicate different modes of operation of one or more cameras (e.g., selectable user interface objects) (e.g., different Affordances to select camera modes (e.g. slow motion, video, photo, portrait, square, panorama, etc.). In some embodiments, multiple camera modes (e.g., two or more of video, photo, portrait, slow motion, panorama modes) are enabled as the camera (e.g., camera sensor) captures media. Corresponding multiple settings with multiple values (e.g. light levels for each setting) for the mode (e.g. portrait mode) in which it is operating (including post-processing that is automatically performed after capture) (e.g. For portrait camera mode: studio lighting setting, contour lighting setting, stage lighting setting). In this way, for example, the camera mode has no effect on how the camera behaves when capturing media, or multiple settings (e.g. multiple values (e.g. inactive, active, auto)). (flash mode with one setting with ). In some embodiments, camera modes allow the user to capture different types of media (e.g., photos or videos) and optimize the settings for each mode to achieve specific characteristics (e.g., shape ( (e.g., square, rectangle), speed (e.g., slow motion, time lapse), audio, video) to capture (e.g., via post-processing) specific types of media corresponding to specific modes. can. For example, when the electronic device is configured to operate in still photography mode, one or more cameras of the electronic device, when activated, may be set to certain settings (e.g., flash settings, one or more filters). One or more cameras of the electronic device are activated when the electronic device is configured to capture media of a first type (e.g., a rectangular photograph) and to operate in a square mode. The electronic device is then configured to capture media of a second type (e.g., a square photo) with specific settings (e.g., flash settings and one or more filters) and operate in slow motion mode. When activated, one or more cameras of the electronic device are of a third type (e.g. slow motion video) and when the electronic device is configured to operate in portrait mode, one or more of the cameras on the electronic device may capture certain settings (e.g., a certain type of light (e.g., capture media of a fifth type (e.g. portrait photos (e.g. photos with blurred backgrounds)), with panorama mode The one or more cameras of the electronic device have specific settings (e.g., zoom, amount of field of view to capture while moving) when the electronic device is configured to operate with a fourth type Capture media (e.g., panorama pictures (e.g., wide pictures). In some embodiments, when switching between modes, the representation of the field of view is displayed to correspond to the type of media captured by the mode. varies (e.g., while the electronic device is operating in still picture mode, the representation is rectangular mode; while the electronic device is operating in square mode, the representation is square). In the embodiment of , the electronic device is configured to capture media in a first mode while displaying the first plurality of camera mode affordances.

1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、図35Aの620)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する位置での)第1のジェスチャ(例えば、3350a及び/又は3350b)(例えば、タッチジェスチャ(例えば、上向きスワイプ又は下向き)、アフォーダンス(例えば、3502)上のタップジェスチャ)を検出する(3604)。 While displaying a first plurality of camera mode affordances (e.g., 620 in FIG. 35A) indicating different modes of operation of one or more cameras, the electronic device was directed at the camera user interface (e.g., its Detect a first gesture (e.g., 3350a and/or 3350b) (e.g., touch gesture (e.g., swipe up or down), tap gesture on affordance (e.g., 3502) on or at corresponding positions) (3604).

カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応じて(3606)、電子デバイスは、第1の位置に第1の1組のカメラ設定(例えば、カメラ動作を制御する設定)アフォーダンス(例えば、図35Bの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示し(3608)、第1の位置にカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)表示することを停止する(3610)。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラモード(例えば、620c)の画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(例えば、カメラモードアフォーダンスを、カメラ設定アフォーダンスに置き換える)(例えば、第1の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第1のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第1のアフォーダンスを含む)。ジェスチャに応じて、カメラモードでメディアをキャプチャする選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスを表示することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting 3606 a first gesture directed at the camera user interface, the electronic device moves a first set of camera settings (eg, settings that control camera operation) affordances to a first location. (e.g., 626 in FIG. 35B) (e.g., one or more selectable user interface objects) (e.g., camera settings for selected camera mode (e.g., flash, timer, filter effects, f-number, aspect ratio, live photo) ), and stop displaying a first plurality of camera mode affordances (e.g., selectable user interface objects) indicating different modes of operation of the camera at the first position (3608). (3610). In some embodiments, the first set of camera setting affordances are settings (e.g., controls that adjust image capture behavior) for adjusting image capture for the first camera mode (e.g., 620c) ( (e.g., replace camera mode affordances with camera setting affordances) (e.g., a first set of camera setting affordances, when selected, instruct the electronic device to set first image capture settings in a first camera mode (e.g., , properties), including the first affordance). providing feedback to the user about the camera settings associated with the camera mode by displaying a camera setting affordance corresponding to the selected camera affordance for capturing media in the camera mode in response to the gesture; and one or more When the operations of are performed to select camera setting affordances, they provide the user with more control over the device by helping the user to easily configure the camera mode based on the camera settings. By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. It uses less power and improves battery life.

第1の位置に第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)を表示している間に、かつ第1のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスが構成されている(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する位置での)第2のジェスチャ(例えば、3550c)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第1のジェスチャに対して相対的に直角な方向のスワイプ)を受信する(3612)。いくつかの実施形態では、第2のジェスチャは、第1のジェスチャ.とは異なる方向(例えば、直角又は平行でない)にある。 Media (e.g., one or more images, video) while displaying a first set of camera setting affordances (e.g., 626 in FIG. 35C) in a first position and in a first camera mode. When the electronic device is configured to capture (e.g., activated (e.g., by initiating media capture (e.g., tapping on a shutter affordance)), one or more cameras of the electronic device (e.g., adjust settings to cause media to be captured in a second camera mode)) while the electronic device is pointed at (e.g., at or corresponding to) the camera user interface. A second gesture (eg, 3550c) (eg, a left swipe, a right swipe, and/or a swipe in a direction relatively perpendicular to the first gesture) is received (3612). In some embodiments, the second gesture is the first gesture . in a different direction (eg, perpendicular or non-parallel) to the

カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて(3614)、電子デバイスは、第1のカメラモードとは異なる第2のカメラモード(例えば、620c)でメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(3616)(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、第1の位置で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の位置で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(3618)。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新すること、及び異なるモードで動作するように電子デバイスを構成することにより、ユーザが異なるモードで動作するようにメディアを構成する必要があり、かつ異なるモードに対応するカメラ設定を設定する必要がある動作の数を低減し、1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。操作を実行するのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving 3614 a second gesture directed at the camera user interface, the electronic device displays the media (eg, 1 When the electronic device is configured 3616 to capture one or more images, video) and is activated (e.g., by initiating media capture (e.g., tapping on a shutter affordance)), the electronic device One or more cameras adjust settings that cause the electronic device to capture media in a second camera mode)) (e.g., the first camera mode and the second camera mode are adjacent to each other) ( For example, the second set of camera setting affordances includes a second affordance that, when selected, causes the electronic device to adjust first image capture settings (e.g., characteristics) of the second camera mode). , a plurality of camera mode affordances (e.g., selectable user interface objects) that indicate different modes of operation of one or more cameras at a first position (e.g., different camera modes (e.g., slow motion, video, photo, portrait, A second set of camera setting affordances (e.g., 626 in FIG. 35E) (e.g., one or more selectable user interface objects) at the first position without displaying the affordances to select (square, panorama, etc.) ) (eg, affordances to select or change camera settings (eg, flash, timer, filter effects, f-number, aspect ratio, live photo, etc.) for the selected camera mode (3618). By updating the display of camera setting affordances corresponding to the selected camera affordance with the display of camera setting affordances corresponding to different modes, and configuring the electronic device to operate in different modes, the user can switch between different modes. and reduce the number of operations that need to configure the media to work with and set the camera settings corresponding to the different modes, one or more operations are performed to select the camera setting affordance. provides the user with more control over the device by helping the user easily configure the camera mode based on the camera settings. By reducing the number of inputs required to perform an operation, the usability of the device is enhanced and the user-device interface (e.g., the user providing appropriate input when operating/interacting with the device and reduce user error), as well as reduce power usage and reduce device battery consumption by allowing users to use their devices more quickly and efficiently. improve lifespan; By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスは、第2のカメラモードの画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(3620)(例えば、図35Eの626)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第2の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)。 In some embodiments, the second set of camera setting affordances are settings that adjust image capture for the second camera mode (e.g., controls that adjust the operation of image capture) 3620 (e.g., 626 in FIG. 35E) (e.g., a second set of camera setting affordances, when selected, causes the electronic device to adjust a second image capture setting (e.g., characteristics) for a second camera mode, 2 affordance).

いくつかの実施形態では、第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)は、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)とは異なる。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにあるカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにないカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス及び第2の1組のカメラ設定アフォーダンスは、異なる数のカメラ設定アフォーダンスを有する。いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスを、第1の1組のカメラ設定アフォーダンスに置き換える。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新することにより、1つ以上の動作がカメラ設定アフォーダンスを選択するように実行されると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを支援することにより、デバイスのより多くのコントロールをユーザに提供する。操作を実行するのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加のコントロールによってUIを雑然とさせることなく、追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the second set of camera setting affordances (eg, 626 in FIG. 35E) is different than the first set of camera setting affordances (eg, 626 in FIG. 35B). In some embodiments, the first set of camera setting affordances includes camera setting affordances in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances includes camera setting affordances not in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances and the second set of camera setting affordances have different numbers of camera setting affordances. In some embodiments, the second set of camera setting affordances is replaced with the first set of camera setting affordances. when one or more operations are performed to select a camera setting affordance by updating the display of the camera setting affordance corresponding to the selected camera setting affordance with the display of the camera setting affordance corresponding to a different mode; It provides users with more control over their devices by helping them easily configure camera modes based on camera settings. By reducing the number of inputs required to perform an operation, the usability of the device is enhanced and the user-device interface (e.g., the user providing appropriate input when operating/interacting with the device and reduce user error), as well as reduce power usage and reduce device battery consumption by allowing users to use their devices more quickly and efficiently. improve lifespan; By providing additional controls without cluttering the UI with additional controls that are displayed, the usability of the device is enhanced and the user-device interface (e.g., when manipulating/interacting with the device make the device more efficient (by helping the user to provide appropriate input and reduce user error), as well as by allowing the user to use the device more quickly and efficiently. Reduced power usage and improved battery life.

いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)(又は第2の1組のカメラ設定アフォーダンス)は、フラッシュ設定アフォーダンス(例えば、626a)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、フラッシュ動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフラッシュ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はフラッシュ動作を設定するユーザインタフェースを表示させる、フラッシュ設定アフォーダンス)、画像キャプチャ設定アフォーダンス(例えば、626b)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、アニメーション化された画像(例えば、動画(例えば、静止画像(単数又は複数)及び/又はビデオ))をキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された画像キャプチャ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はアニメーション化された画像キャプチャ動作を設定するユーザインタフェースを表示させる、画像キャプチャ設定アフォーダンス(例えば、アニメーション化された画像キャプチャ設定アフォーダンス))、アスペクト比カメラ設定アフォーダンス(例えば、626c)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、特定のアスペクト比を使用してメディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたアスペクト比カメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のアスペクト比の使用のためのユーザインタフェースを表示させる、アスペクト比設定アフォーダンス)、フィルタ設定カメラ設定アフォーダンス(例えば、626e)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、特定のフィルタを使用して、キャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフィルタカメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のフィルタの使用を設定するユーザインタフェースを表示させる、フィルタ設定アフォーダンス)、高ダイナミックレンジイメージングカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、画像メディアをキャプチャする要求に応じて、高ダイナミックレンジをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された高ダイナミックレンジ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、高ダイナミックレンジイメージングを使用するユーザインタフェースを表示させる、高ダイナミックレンジ設定アフォーダンス)、及び低光カメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応じて、低光モード動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された低光キャプチャカメラモードアフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又は低光キャプチャカメラモードを設定するユーザインタフェースを表示させる、低光カメラ設定アフォーダンス)のうちの1つ以上を含む。 In some embodiments, the first set of camera setting affordances (eg, 626 in FIG. 35B) (or the second set of camera setting affordances) is the flash setting affordances (eg, 626a) (eg, select possible user interface object) (e.g., when selected, causes the electronic device to change into or out of a state in which the electronic device captures media using a flash action in response to a request to capture media (e.g., , or display options on the electronic device to change), display the state of the displayed flash setting affordance (inactive, active, automatic, one or more characters, and/or an image associated with the camera setting affordance). and/or display a user interface for configuring flash behavior (e.g., flash settings affordance), image capture settings affordance (e.g., 626b) (e.g., selectable user interface object) (e.g., select When prompted, the electronic device captures an animated image (e.g., moving image (e.g., still image(s) and/or video) in response to the request to capture media). to or from the state (e.g., or display an option on the electronic device to change), and the state of the displayed image capture settings affordance (inactive, active, automatic, one or more characters, and/or camera settings image capture settings affordance (e.g., animated image capture) that toggles (e.g., changes) display of the affordance) and/or displays a user interface for setting animated image capture behavior. setting affordance)), aspect ratio camera setting affordance (e.g., 626c) (e.g., selectable user interface object) (e.g., when selected, the electronic device, when requested to capture media, specified (e.g., or display an option on an electronic device) to capture media using the aspect ratio of the displayed aspect ratio camera setting affordance state (inactive, active, automatic, one or more characters, and/or turtle Aspect Ratio Setting Affordances) to toggle (e.g., change) the display of the image associated with the Aspect Ratio Setting Affordance) and/or to display a user interface for use of a particular aspect ratio when capturing media. , a filter settings camera settings affordance (e.g., 626e) (e.g., a selectable user interface object) (e.g., when selected, the electronic device uses a particular filter in response to a request to capture media). to change into or out of the capture state (e.g., or display an option on the electronic device to change), and the state of the displayed filter camera settings affordance (inactive, active, automatic, one or more characters , and/or images associated with camera setting affordances), and/or display a user interface that configures the use of a particular filter when capturing media. Affordance), High Dynamic Range Imaging Camera Settings Affordance (e.g., selectable user interface object) (e.g., when selected, electronic device captures high dynamic range upon request to capture image media) the state of the displayed high dynamic range setting affordance (inactive, active, automatic, one or more characters, and/or or images associated with camera setting affordances) and/or cause a user interface using high dynamic range imaging to be displayed when capturing media. , and a low-light camera setting affordance (e.g., a selectable user interface object) (e.g., when selected, the electronic device uses low-light mode operation in response to a request to capture media, The state of the displayed low-light capture camera mode affordance (inactive, active, automatic, one or more letters and/or image associated with the camera setting affordance), and/or cause a user interface to set the low-light capture camera mode. include.

いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、3550a)(例えば、ドラッグジェスチャ)を検出し、カメラユーザインタフェースに向けられた第1の接触(例えば、連続的な接触)を検出することを含む。いくつかの実施形態では、第1のジェスチャを検出している間に、電子デバイスは、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了(例えば、図35Bの3550a)(例えば、第1の閾値移動又は移動をドラッグ)を検出する。いくつかの実施形態では、ジェスチャの移動が第1の閾値移動を有する(例えば、第1の距離を移動した)との判定に従って、電子デバイスは、第1のジェスチャの完了を検出する。いくつかの実施形態では、第1の接触のリフトオフを検出する前に第1のジェスチャの完了を検出したことに応じて、電子デバイスは、触知出力(例えば、3560a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を提供する。 In some embodiments, the electronic device detects a first gesture (eg, 3550a) (eg, a drag gesture) and detects a first contact (eg, continuous contact) directed at the camera user interface. Including detecting. In some embodiments, while detecting the first gesture, the electronic device detects completion of the first gesture (e.g., 3550a in FIG. 35B) (e.g., 3550a in FIG. 35B) before detecting lift-off of the first contact. For example, a first threshold movement or drag movement) is detected. In some embodiments, the electronic device detects completion of the first gesture following determining that the movement of the gesture has a first threshold movement (eg, moved a first distance). In some embodiments, in response to detecting completion of the first gesture prior to detecting lift-off of the first contact, the electronic device outputs a tactile output (e.g., 3560a) (e.g., one or more provides a haptic (eg, vibration) output generated by the tactile output generator of the .

いくつかの実施形態では、カメラユーザインタフェースを表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550d)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第2のジェスチャと同じ又は反対の方向のスワイプ)を検出する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応じて、かつ第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)は、第3のジェスチャが検出されたときに表示されていたとの判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上のタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の位置に第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応じて、かつ第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスが現在表示されているとの判定に従って、電子デバイスは、第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスを表示することを停止する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応じて、かつ第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)は、第3のジェスチャが検出されたときに表示されていたとの判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し、かつ第1の複数のカメラモードアフォーダンス(例えば、図35Hの620)がは、第3のジェスチャ(例えば、3550h)が検出されたときに表示されていたとの判定に従って、電子デバイスは、第2の1組のカメラ設定アフォーダンス(又は第1の1組のカメラ設定アフォーダンス)及び第3の1組のカメラ設定アフォーダンスを表示することなく、第1の位置に1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンス(例えば、図35I)を表示し、第1のカメラモード及び第3のカメラモードでメディアをキャプチャするように電子デバイスを構成する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応じて、かつ第1の複数のカメラモードアフォーダンスが現在表示されているとの判定に従って、電子デバイスは、第1の複数のカメラモードアフォーダンスを表示することを停止する。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第2のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子は、第3のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスとは異なる。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスにない1つ以上のアフォーダンスを含み、又は逆もまた同様である。ジェスチャに応じて、カメラモードアフォーダンスが表示されるときにカメラモードアフォーダンスを維持すること、又はカメラ設定アフォーダンスが表示されるときにカメラ設定アフォーダンスを維持することにより、入力に応じて、カメラモードアフォーダンス又はカメラ設定アフォーダンスにおける変化の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying the camera user interface, the electronic device performs a third gesture (eg, 3550d) directed at the camera user interface (eg, left swipe, right swipe, and/or Detect a swipe in the same or opposite direction as the second gesture). In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and a second set of camera setting affordances (eg, 626 in FIG. 35C). ) (or the first set of camera setting affordances) was displayed when the third gesture was detected, the electronic device displays media (e.g., one or more When an electronic device is configured (e.g., by initiating media capture (e.g., by tapping on a shutter affordance)) to capture a video, one or more cameras of the electronic device adjust settings that cause the electronic device to capture media in a second camera mode)) (e.g., the first camera mode and the second camera mode are adjacent to each other) (e.g., the second a set of camera setting affordances that, when selected, cause the electronic device to adjust first image capture settings (e.g., characteristics) of a second camera mode; Multiple camera mode affordances (e.g., selectable user interface objects) that indicate different operating modes of the camera (e.g., affordances for selecting different camera modes (e.g., slow motion, video, photo, portrait, square, panorama, etc.)) A third set of camera setting affordances (e.g., 626 in FIG. 35E) (e.g., one or more selectable user interface objects) (e.g., the selected camera mode's Affordances to select or change camera settings (e.g., flash, timer, filter effects, f-number, aspect ratio, live photo, etc.). In some embodiments, the first set of camera setting affordances or the second set of camera setting affordances are currently displayed in response to receiving a third gesture directed at the camera user interface. The electronic device stops displaying the first set of camera setting affordances or the second set of camera setting affordances in accordance with the determination that the camera setting affordances are correct. In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and a second set of camera setting affordances (eg, 626 in FIG. 35C). ) (or the first set of camera setting affordances) was displayed when the third gesture was detected, the electronic device displays media (e.g., one or more image, video), and a first plurality of camera mode affordances (e.g., 620 in FIG. 35H) are captured when a third gesture (e.g., 3550h) is detected without displaying the second set of camera setting affordances (or the first set of camera setting affordances) and the third set of camera setting affordances, Displaying a second plurality of camera mode affordances (e.g., FIG. 35I) indicating different camera operating modes of the one or more cameras at the first location and capturing media in the first camera mode and the third camera mode. configure the electronic device to In some embodiments, in response to receiving a third gesture directed at the camera user interface and following determining that the first plurality of camera mode affordances is currently displayed, the electronic device: Stop displaying the first plurality of camera mode affordances. In some embodiments, the electronic device is configured to capture media in the second mode while displaying the second multiple camera mode affordance. In some embodiments, the electrons are configured to capture media in a third mode while displaying the second multiple camera mode affordance. In some embodiments, the second plurality of camera mode affordances is different than the first plurality of camera mode affordances. In some embodiments, the second plurality of camera mode affordances includes one or more affordances not in the first plurality of camera mode affordances, or vice versa. Depending on the gesture, maintaining the camera mode affordance when the camera mode affordance is displayed, or maintaining the camera setting affordance when the camera setting affordance is displayed, depending on the input, the camera mode affordance or Provide the user with visual feedback of changes in camera setting affordances. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、電子デバイスは、第1の位置に第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示し、第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(例えば、又は現在表示される第2の1組のカメラ設定アフォーダンス)を置き換える、第3の1組のカメラ設定アフォーダンスのアニメーション(例えば、図35C~図35E)を表示することを含む。いくつかの実施形態では、第3のジェスチャ(例えば、スワイプ)を検出すると、カメラ設定アフォーダンスが隠れる場合には、アニメーションは表示されない。いくつかの実施形態では、アニメーションは、1つ以上のコントロールのフェード又はフェードアウトを含む。いくつかの実施形態では、アニメーションは、1つ以上のコントロールを含み、1つ以上のコントロールは、近づくように又は更に離れるように動いて、追加のコントロールのための余地を作る、又は消失したコントロールによって以前に占有されていた空間を充填する。) In some embodiments, the electronic device displays a third set of camera setting affordances (eg, 626 in FIG. 35E) at the first location and displays the first set of camera setting affordances (eg, FIG. 35E). 626 of 35C) (eg, or the currently displayed second set of camera setting affordances), displaying an animation of the third set of camera setting affordances (eg, FIGS. 35C-35E ). include. In some embodiments, upon detection of a third gesture (eg, a swipe), no animation is displayed if the camera settings affordance is hidden. In some embodiments, animation includes fading or fading out of one or more controls. In some embodiments, an animation includes one or more controls that move closer together or further apart to make room for additional controls or disappear controls. fills the space previously occupied by )

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第1の部分の第1の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第1のタイプのカメラ(例えば、超広角カメラ)(例えば、3180a)を介してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分(例えば、図35Aの630に表示された3540)の第2の表現を表示する。いくつかの実施形態では、視野の第2の部分は、1つ以上のカメラの視野の第1の部分(例えば、図35Bの630に表示される3540)の一部を含まない(例えば、1つ以上のカメラの視野の一部分の一部は、第2の表現を表示するときに、ディスプレイから外れてシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応じて、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the one or more cameras' fields of view is a first representation of a first portion of the one or more cameras' fields of view. In some embodiments, in response to receiving a second gesture directed at the camera user interface and via a first type camera (e.g., an ultra-wide-angle camera) (e.g., 3180a), Upon determining that the electronic device is configured to capture, the electronic device sends a second representation of a second portion (eg, 3540 displayed at 630 in FIG. 35A) of the field of view of the one or more cameras. display. In some embodiments, the second portion of the field of view does not include a portion (eg, 1 A portion of the field of view of the one or more cameras is shifted off the display when displaying the second representation). By shifting the content of the display on and off only when predetermined conditions are met, the user toggled between having the electronic device display the camera mode and the camera settings. It can quickly recognize that previously displayed portions of the media have not been captured, or the user can, in response to a request to capture media while the electronic device displays a particular user interface, It can be recognized that the newly displayed portion of the media is captured. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第3の部分の第3の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第2のタイプのカメラ(例えば、超広角カメラ(例えば、第1のタイプのカメラと同一カメラタイプのカメラ))を使用してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、1つ以上のカメラの視野の第4の部分の第4の表現を表示する。いくつかの実施形態では、1つ以上のカメラの視野の第4の部分(例えば、図35Aの630に表示される3538)は、1つ以上のカメラの視野の第3の部分にない1つ以上のカメラの視野の一部分(例えば、図35Bの630に表示される3538)を含む(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイ上にシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応じて、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the one or more cameras' fields of view is a third representation of a third portion of the one or more cameras' fields of view. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a second type camera (e.g., an ultra-wide-angle camera (e.g., identical to the first type camera) Upon determining that the electronic device is configured to capture media using a camera of type camera)), the electronic device renders a fourth representation of a fourth portion of the field of view of the one or more cameras. indicate. In some embodiments, the fourth portion of the one or more cameras' fields of view (eg, 3538 displayed at 630 in FIG. 35A) is one that is not in the one or more cameras' third portion of the field of view. (eg, a portion of one or more of the camera's fields of view may be displayed on the display when displaying the second representation). shifted up). By shifting the content of the display on and off only when predetermined conditions are met, the user toggled between having the electronic device display the camera mode and the camera settings. It can quickly recognize that previously displayed portions of the media have not been captured, or the user can, in response to a request to capture media while the electronic device displays a particular user interface, It can be recognized that the newly displayed portion of the media is captured. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第5の部分の第5の表現である。いくつかの実施形態では、第5の表現は、表示デバイス上の第2の位置に表示される。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応じて、かつ第3のタイプのカメラ(例えば、広角又は望遠写真カメラ(例えば、第3のタイプのカメラは、第1のタイプのカメラ及び第2のタイプのカメラとは異なる)を使用してメディアをキャプチャするように電子デバイスが構成されているとの判定に従って、電子デバイスは、表示デバイス上の第2の位置から表示デバイス上の第3の位置に第5の表現を動かす(例えば、1つ以上のカメラの視野の一部分が表示デバイスから外れてシフトされているように見えない)。 In some embodiments, the representation of the one or more cameras' fields of view is a fifth representation of a fifth portion of the one or more cameras' fields of view. In some embodiments, the fifth representation is displayed at the second location on the display device. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a third type camera (e.g., a wide-angle or telephoto camera (e.g., a third type camera is different from the first type camera and the second type camera), the electronic device is configured to capture media using a first Move the fifth representation from position 2 to a third position on the display device (eg, a portion of the field of view of one or more cameras does not appear to be shifted off the display device).

いくつかの実施形態では、第1のカメラモードは、ポートレートモード(例えば、図35Gの626c)である。いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、図35Gの630)は、第1のズームレベル(例えば、2622a)(例えば、0.5×、1×、2×)で表示される。いくつかの実施形態では、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、ポートレートモード)を表示している間に、電子デバイスは、照明効果動作を制御するアフォーダンス(例えば、628)(例えば、選択可能ユーザインタフェースオブジェクト)及びズームアフォーダンス(例えば、2622a)を表示する(例えば、同時に表示した)。ズームアフォーダンス(例えば、フォーカスセレクタがズームアフォーダンスに向けられている間のズームアフォーダンス上のタップ入力又はマウスクリック又は他のアクティブ化入力)を表示している間に、電子デバイスは、ズームアフォーダンスに向けられた第4のジェスチャ(例えば、3550g)を受信する。いくつかの実施形態では、ズームアフォーダンスに向けられた第4のジェスチャを受信したことに応じて、電子デバイスは、第2のズームレベル(例えば、2622c)(例えば、0.5×、1×、2×)で1つ以上のカメラの視野の表現(例えば、図35Hの630)を表示する。 In some embodiments, the first camera mode is portrait mode (eg, 626c in FIG. 35G). In some embodiments, one or more camera field-of-view representations (e.g., 630 in FIG. 35G) are displayed at a first zoom level (e.g., 2622a) (e.g., 0.5×, 1×, 2×). is displayed. In some embodiments, while displaying a first plurality of camera mode affordances (e.g., 620) (e.g., portrait mode), the electronic device controls affordances (e.g., 628) that control lighting effect operations. ) (eg, selectable user interface object) and the zoom affordance (eg, 2622a) (eg, displayed simultaneously). The electronic device is directed to the zoom affordance while displaying the zoom affordance (e.g., a tap input or mouse click or other activation input on the zoom affordance while the focus selector is directed to the zoom affordance). receive a fourth gesture (eg, 3550g). In some embodiments, in response to receiving a fourth gesture directed to a zoom affordance, the electronic device adjusts a second zoom level (eg, 2622c) (eg, 0.5x, 1x, 2×) displays a representation of the field of view of one or more cameras (eg, 630 in FIG. 35H).

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスは、選択されると、メディアをキャプチャする要求に応じて、電子デバイスに第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンス(例えば、620c)(例えば、選択可能ユーザインタフェースオブジェクト)と、選択されると、メディアをキャプチャする要求に応じて、電子デバイスに第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンス(例えば、620d)(例えば、選択可能ユーザインタフェースオブジェクト)と、を含む。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスが表示されている間に、第1のカメラモードアフォーダンスが選択される(例えば、ディスプレイ上の特定の位置(例えば、中心位置)に、異なるフォント、色、テキストサイズの太字で表示される)。 In some embodiments, the first plurality of camera mode affordances, when selected, causes the electronic device to capture media in a first camera mode in response to a request to capture media. (eg, 620c) (eg, a selectable user interface object) and a second camera mode affordance (eg, selectable user interface object) that, when selected, causes the electronic device to capture media in a second camera mode in response to a request to capture media. 620d) (eg, selectable user interface objects). In some embodiments, a first camera mode affordance is selected while the first plurality of camera mode affordances is displayed (e.g., at a particular location on the display (e.g., center location), displayed in bold with different fonts, colors and text sizes).

いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンス(例えば、620c)は、第2のカメラモードアフォーダンス(例えば、620d)に隣接して表示される。いくつかの実施形態ではカメラユーザインタフェースに向けられた第1のジェスチャを検出する前に、かつ第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンスは、第1のカメラモードがアクティブ(例えば、図35Aの620c)であるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第1のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色である第1のカメラモードアフォーダンスとともに、第1のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前に、かつ第1の複数のカメラモードアフォーダンスを表示している間に、かつ/又は電子デバイスが第1のカメラモードで動作するように構成される間に、第2のカメラモードアフォーダンスは、第2のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第2のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, a first camera mode affordance (eg, 620c) is adjacent to a second camera mode affordance (eg, 620d) while displaying the first plurality of camera mode affordances. displayed. In some embodiments, prior to detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordance comprises a first camera mode is active (e.g., 620c in FIG. 35A) (e.g., pressed, bold, and/or the first camera mode is inactive (e.g., black vs. greyed out)). displayed with a visual indication that the first camera mode is active, with the first camera mode affordance being a different color than the time). In some embodiments, prior to detecting a first gesture directed at the camera user interface and/or while displaying the first plurality of camera mode affordances, the electronic device performs a first While configured to operate in camera mode, the second camera mode affordance is displayed with an indication that the second camera mode is inactive (e.g., not pressed, not bolded, and/or displayed with a visual indication that the second camera mode is inactive, such as being a different color than when the second camera mode is active (eg, greyed out versus black).

いくつかの実施形態では、第1の位置に第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第5のジェスチャを検出する。いくつかの実施形態では、カメラインタフェースに向けられた第5のジェスチャ(例えば、3550e及び3550d)を検出したことに応じて、電子デバイスは、1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンス(例えば、図35Fの620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第2のカメラモードアフォーダンス(例えば、図35Fの620d)を含む。いくつかの実施形態では、第2のカメラモードアフォーダンス(例えば、図35Fの太字620d)は、第2のカメラモードがアクティブであるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第2のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色であるなどの、第2のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第1のカメラモードアフォーダンスを含む。いくつかの実施形態では、第3のカメラモードアフォーダンスが、第3のカメラモードがアクティブであるインジケーションとともに表示される間に、かつ/又は電子デバイスが第2のカメラモードで動作するように構成される間に、第1のカメラモードアフォーダンスは、第1のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第1のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, while displaying the second set of camera setting affordances (e.g., 626 in FIG. 35E) at the first position, the electronic device directs a fifth camera pointing toward the camera user interface. gesture. In some embodiments, in response to detecting a fifth gesture (e.g., 3550e and 3550d) directed at the camera interface, the electronic device displays a third camera operating mode of the one or more cameras. A plurality of camera mode affordances (eg, 620 in FIG. 35F) (eg, selectable user interface objects). In some embodiments, the third plurality of camera mode affordances includes a second camera mode affordance (eg, 620d in FIG. 35F). In some embodiments, the second camera mode affordance (eg, bold 620d in FIG. 35F) is displayed with an indication that the second camera mode is active (eg, pressed, bold, and/or or displayed with a visual indication that the second camera mode is active, such as being a different color than when the second camera mode is inactive (eg, black versus greyed out). In some embodiments, the third plurality of camera mode affordances includes the first camera mode affordances. In some embodiments, the electronic device is configured to operate in the second camera mode while the third camera mode affordance is displayed with an indication that the third camera mode is active and/or while the first camera mode affordance is displayed with an indication that the first camera mode is inactive (e.g., not pressed, not bolded, and/or the second camera mode is active (e.g., , greyed out versus black) with a visual indication that the first camera mode is inactive).

方法3600に関して上述された処理(例えば、図36A~図36B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3800、4000、及び4200は、方法3600を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3600に関連して上述したように、様々な技術を使用してメディアをキャプチャするカメラモードについて様々なカメラ設定にアクセスすることを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 36A-36B) described above with respect to method 3600 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3800, 4000, and 4200 are described above with reference to method 3600. Optionally includes one or more of the characteristics of various methods. For example, method 3200 optionally employs accessing various camera settings for camera modes that capture media using various techniques, as described above with respect to method 3600 . For the sake of brevity, these details are not repeated below.

図37A~図37AAは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図38A~図38Cにおける処理を含む、以下で説明する処理を例示するために使用される。 37A-37AA illustrate exemplary user interfaces for automatically adjusting captured media using an electronic device, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 38A-38C.

図37Aは、図37C~図37AAにおいて以下に説明する実施形態の理解を向上させるための例示的なシーン3780を示す。左から右へ動くシーン3780は、左部分3782及び右部分3784を含む。左部分3782は、矩形プリズム2432上に座っている人を含む。右部分3784は、人3784bの肩に座っている犬3784aを含む。更には、シーン3780は、シーン3780の幅にわたって走る水平線2438を更に含む。 FIG. 37A shows an exemplary scene 3780 to improve understanding of the embodiments described below in FIGS. 37C-37AA. A left-to-right moving scene 3780 includes a left portion 3782 and a right portion 3784 . Left portion 3782 includes a person sitting on rectangular prism 2432 . Right portion 3784 includes dog 3784a sitting on shoulder of person 3784b. Additionally, scene 3780 further includes a horizontal line 2438 that runs across the width of scene 3780 .

図37Bは、図37C~図37AAにおいて以下に説明する実施形態の理解を向上させるための設定ユーザインタフェースを表示する電子デバイス600を示す。設定ユーザインタフェースは、設定アフォーダンス3702含む。具体的には、設定アフォーダンス3702は、追加のコンテンツ設定アフォーダンス3702aを含む。図37Bにおいて、追加のコンテンツ設定アフォーダンス3702aは、選択されていないように(例えば、オフ状態で)表示され、これは、デバイス600が追加のコンテンツをキャプチャするように構成されていないことを示す。 FIG. 37B shows electronic device 600 displaying a settings user interface to improve understanding of the embodiments described below in FIGS. 37C-37AA. The settings user interface includes a settings affordance 3702 . Specifically, setting affordance 3702 includes additional content setting affordance 3702a. In FIG. 37B, additional content setting affordance 3702a is displayed as unselected (eg, in an off state), indicating that device 600 is not configured to capture additional content.

図37C~図37Jは、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための画像をキャプチャするための例示的なユーザインタフェースを示す。図37K~図37Qは、メディアが表示されると(例えば、図37C及び図37Tに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成される場合、図37C~図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。図37R~図37Wは、メディアが表示されると(例えば、図37Oに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていない場合、図37C~図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。更には、図37X~図37AAは、図37K~図37Wに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。図37Bでは、デバイス600は、設定ユーザインタフェースの底部部分に対応する位置での右向きスワイプジェスチャ3750bを検出する。 37C-37J illustrate exemplary user interfaces for capturing images for automatically adjusting captured media using an electronic device. FIGS. 37K-37Q show FIGS. 37C-37C when the device 600 is configured to automatically adjust the captured media when the media is displayed (eg, as shown in FIGS. 37C and 37T). FIG. 37J shows an exemplary user interface for automatically adjusting images captured in one or more of FIGS. Figures 37R-37W show Figures 37C-37J if the device 600 is not configured to automatically adjust the captured media when the media is displayed (eg, as shown in Figure 37O). 1 illustrates an exemplary user interface for automatically adjusting images captured in one or more of . In addition, FIGS. 37X-37AA illustrate exemplary user interfaces for adjusting other media (eg, video media) using techniques similar to those described with respect to FIGS. 37K-37W. show. In FIG. 37B, device 600 detects right swipe gesture 3750b at a location corresponding to the bottom portion of the settings user interface.

図37Cに示すように、右向きスワイプジェスチャ3750bを検出したことに応じて、デバイス600は、設定ユーザインタフェースの表示を、カメラユーザインタフェースに置き換える。図37Cにおいて、デバイス600は、右部分3784の写真を撮る位置にある。図37Cでは、デバイス600は、右部分3784に近接した位置にあり、これにより、犬3784a及び人3784bの肩は、ライブプレビュー630を含むカメラユーザインタフェース上に表示される。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。ライブプレビュー630は、1×ズームレベルで表示され、選択された1×ズームアフォーダンス2622bによって明らかである。ライブプレビュー630が1×ズームレベルで表示され、かつデバイス600が現在デバイス600の裏側のカメラを使用して、メディアをキャプチャするため、デバイス600は、図31Cに関連して上述したように、広い視野を有するカメラ(例えば、超広角カメラ)及び狭い視野を有するカメラ(例えば、広角カメラ)を使用して、犬3784aの画像をキャプチャしている。 As shown in FIG. 37C, in response to detecting right swipe gesture 3750b, device 600 replaces the display of the settings user interface with a camera user interface. In FIG. 37C, device 600 is in position to take a picture of right portion 3784 . 37C, the device 600 is positioned proximate the right portion 3784 such that the shoulders of the dog 3784a and the person 3784b are displayed on the camera user interface including the live preview 630. In FIG. Live preview 630 is based on images detected by one or more camera sensors. Live preview 630 is displayed at the 1x zoom level and is evident by the selected 1x zoom affordance 2622b. Because the live preview 630 is displayed at a 1× zoom level, and because the device 600 is currently using the camera on the back of the device 600 to capture media, the device 600 is shown wide, as described above in connection with FIG. 31C. A camera with a field of view (eg, an ultra wide angle camera) and a camera with a narrow field of view (eg, a wide angle camera) are used to capture images of dog 3784a.

図37Cに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。インジケータ領域602及びコントロール領域606にライブプレビュー630の一部分を表示するために、デバイス600は、広い視野(WFOV)を有するカメラの視野内にある環境の一部分(例えば、犬3784aの肉球の上部又は耳及び底部)を使用する。更には、カメラユーザインタフェースは、カメラディスプレイ領域604を含む。デバイス600は、狭い視野(NFOV)を有するカメラの視野内にある環境(例えば、犬3784aの体)の一部分を使用することにより、カメラディスプレイ領域604内にライブプレビュー630の一部分を表示する。 As shown in FIG. 37C, the camera user interface includes indicator area 602 and control area 606, which are overlaid on live preview 630 so that the indicators and controls can be displayed simultaneously with live preview 630. As shown in FIG. In order to display a portion of live preview 630 in indicator area 602 and control area 606, device 600 displays a portion of the environment within the field of view of a camera having a wide field of view (WFOV) (e.g., the top of dog 3784a's paws or ears and bottom). Additionally, the camera user interface includes a camera display area 604 . Device 600 displays a portion of live preview 630 within camera display area 604 by using a portion of the environment (eg, the body of dog 3784a) that is within the field of view of a camera having a narrow field of view (NFOV).

図37Cに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移において、インジケータ領域602とカメラディスプレイ領域604との間に視覚境界部608が表示される。インジケータ領域602はまた、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b~602fはまた、インジケータ領域602に含まれる。 As shown in FIG. 37C, indicator area 602 includes a gray overlay and camera display area 604 does not include a gray overlay. A visual border 608 is displayed between the indicator area 602 and the camera display area 604 at the color transition between the indicator area 602 and the camera display area 604 . Indicator area 602 also includes flash indicator 602a, which indicates whether the flash is in automatic mode, on, off, or another mode (eg, red-eye reduction mode). In some embodiments, other indicators (eg, indicators 602b-602f) are also included in indicator region 602.

図37Cに示すように、コントロール領域606はまた、灰色オーバーレイを含み、これらの領域間の色の遷移において、コントロール領域606とカメラディスプレイ領域604との間に視覚境界部608が表示される。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクション624の一部分、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で表示された「Photo」モード)を示し、ユーザがカメラモードを変更することを可能にする。 As shown in FIG. 37C, the control area 606 also includes a gray overlay and a visual border 608 is displayed between the control area 606 and the camera display area 604 at the color transitions between these areas. In some embodiments, visual boundary 608 is displayed as a solid or dashed line between regions 602, 604, and 608. FIG. Control area 606 includes camera mode affordance 620 , a portion of media collection 624 , shutter affordance 610 , and camera switcher affordance 612 . Camera mode affordance 620 indicates which camera mode is currently selected (eg, "Photo" mode displayed in bold) and allows the user to change camera modes.

図37Cに示すように、デバイス600は、インジケータ領域602とカメラディスプレイ領域604との間に、(図29B~図29Iで論じられたように)視覚境界部608に沿って視覚的引裂きを含む。ここで、インジケータ領域602内に表示される犬の(例えば、犬3784a)耳の上部部分は、カメラディスプレイ領域604に表示される犬の耳の残部の左にシフトされる。いくつかの実施形態では、インジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の一部分は、デバイス600が、図37Bに関連して上述したように、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)をキャプチャするように構成されるため、ブラックアウトされる。図37Cでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750cを検出する。 As shown in FIG. 37C, device 600 includes a visual tear between indicator region 602 and camera display region 604 along visual boundary 608 (as discussed in FIGS. 29B-29I). Here, the upper portion of the dog's (eg, dog 3784 a ) ear displayed in indicator area 602 is shifted to the left of the rest of the dog's ear displayed in camera display area 604 . In some embodiments, the portion of live preview 630 displayed in indicator region 602 and control region 606 may indicate that device 600 may display additional content (e.g., regions 602 and 606 is configured to capture the portion of the live preview 630 displayed in 606), so it is blacked out. 37C, device 600 detects tap gesture 3750c at a location corresponding to shutter affordance 610. In FIG.

図37Dに示すように、タップジェスチャ3750cを検出したことに応じて、デバイス600は、デバイス600が追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)をキャプチャするように構成されていないため、カメラディスプレイ領域604内に表示されるライブプレビュー630の一部分に対応するメディアアイテム(例えば、写真)をキャプチャする。更に、タップジェスチャ3750cを検出したことに応じて、デバイス600は、タップジェスチャ3750cに応じて、キャプチャされたメディアアイテムの表現3724aで、メディアコレクション624を更新する。いくつかの実施形態では、ライブプレビュー630内の視覚的引裂きが閾値レベルを上回る場合、デバイス600が追加のコンテンツをキャプチャするように構成されている場合であっても、デバイス600は、タップジェスチャ3750cを検出したことに応じて、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の一部分)を含まないメディアアイテムをキャプチャする。 As shown in FIG. 37D, in response to detecting tap gesture 3750c, device 600 causes device 600 to capture additional content (eg, the portion of live preview 630 displayed within regions 602 and 606). , capture a media item (eg, a photograph) corresponding to the portion of the live preview 630 displayed within the camera display area 604 . Further, in response to detecting tap gesture 3750c, device 600 updates media collection 624 with a representation 3724a of the captured media item in response to tap gesture 3750c. In some embodiments, if the visual tearing in live preview 630 exceeds a threshold level, device 600 may trigger tap gesture 3750c even if device 600 is configured to capture additional content. , capturing a media item that does not include additional content (eg, the portion of live preview 630 displayed in regions 602 and 606).

図37Dでは、デバイス600は、右部分3784から更に離れるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Dに示すように、ライブプレビュー630を更新し、ここで、犬の耳は、もはや視覚境界部608を遮らず、人3784bの頭の一部分が新たに表示される。ここで、デバイス600は、視覚的引裂きがライブプレビュー630上に存在しないように、右部分3784から十分離れている。図37Dでは、デバイス600は、コントロール領域606の底部上の位置での右向きスワイプジェスチャ3750dを検出する。 In FIG. 37D device 600 has repositioned further away from right portion 3784 . After detecting a change in movement, device 600 updates live preview 630, as shown in FIG. Newly displayed. Here, device 600 is far enough away from right portion 3784 that no visual tearing exists on live preview 630 . 37D, device 600 detects right swipe gesture 3750d at a location on the bottom of control area 606. In FIG.

図37Eに示すように、右向きスワイプジェスチャ3750dを検出したことに応じて、デバイス600は、カメラ設定ユーザインタフェースの代わりに設定ユーザインタフェースを再表示する。図37Eでは、デバイス600は、追加のコンテンツ設定アフォーダンス3702aに対応する位置でのタップジェスチャ3750eを検出する。 As shown in FIG. 37E, in response to detecting right swipe gesture 3750d, device 600 redisplays the settings user interface instead of the camera settings user interface. In FIG. 37E, device 600 detects tap gesture 3750e at a location corresponding to additional content setting affordance 3702a.

図37Fに示すように、タップジェスチャ3750eを検出したことに応じて、デバイス600は、選択されているものとして(例えば、オン状態で)追加のコンテンツ設定アフォーダンス3702aを表示し、これは、デバイス600が追加のコンテンツをキャプチャするように構成されることを示す。タップジェスチャ3750eを検出したことに応じて、デバイス600はまた、選択されているものとして自動メディア補正設定アフォーダンス3702a1を表示し、これは、いくつかの状況では、以下で論じるようにメディアが表示されるときに、デバイス600がキャプチャされたメディアを自動的に調整するように構成されることを示す。自動メディア補正設定アフォーダンス3702a1を表示することとともに、タップジェスチャ3750eを検出したことに応じて、デバイス600は、選択されているものとして、メディアをキャプチャする要求(例えば、タップジェスチャ3750c)を検出したことに応じて、デバイス600が画像メディアの追加のコンテンツをキャプチャするように構成されることを示す、追加の画像コンテンツキャプチャ設定アフォーダンス3702a2と、メディアをキャプチャする要求を検出したことに応じて、デバイス600がビデオメディアの追加のコンテンツをキャプチャするように構成されることを示す、追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3と、を表示する。いくつかの実施形態では、自動メディア補正設定アフォーダンス3702a1(又はアフォーダンス3702a2~3702a3)は、タップジェスチャ3750eを検出したことに応じて、選択されたものとして表示されず、かつデバイス600が自動メディア補正設定アフォーダンス3702a1に対応する位置での追加のタップジェスチャを検出するとき、デバイス600は、選択されるように、自動メディア補正設定アフォーダンス3702a1を更新する。いくつかの実施形態では、デバイス600が選択されていないように追加の画像コンテンツキャプチャ設定アフォーダンス3702a2を表示する場合、デバイス600は、メディアをキャプチャする要求に応じて、画像メディアの追加のコンテンツをキャプチャするように構成されていない。いくつかの実施形態では、デバイス600が選択されていないように追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3を表示する場合、デバイス600は、メディアをキャプチャする要求に応じて、ビデオメディアの追加のコンテンツをキャプチャするように構成されていない。図37Fでは、デバイス600は、設定ユーザインタフェースの底部に対応する位置での右向きスワイプジェスチャ3750fを検出する。 As shown in FIG. 37F, in response to detecting tap gesture 3750e, device 600 displays additional content setting affordance 3702a as being selected (eg, in an on state), which indicates that device 600 is configured to capture additional content. In response to detecting tap gesture 3750e, device 600 also displays automatic media correction setting affordance 3702a1 as being selected, which in some circumstances may cause media to be displayed as discussed below. device 600 is configured to automatically adjust the captured media. In response to detecting tap gesture 3750e along with displaying automatic media correction setting affordance 3702a1, device 600 detected a request to capture media (eg, tap gesture 3750c) as being selected. additional image content capture setting affordance 3702a2 indicating that device 600 is configured to capture additional content of image media in response to detecting a request to capture media, and device 600 additional video content capture setting affordance 3702a3 indicating that the is configured to capture additional content of the video media. In some embodiments, automatic media-correction setting affordance 3702a1 (or affordances 3702a2-3702a3) is not displayed as selected in response to detecting tap gesture 3750e, and device 600 detects automatic media-correction setting affordance 3702a1. Upon detecting an additional tap gesture at a location corresponding to affordance 3702a1, device 600 updates automatic media correction setting affordance 3702a1 to be selected. In some embodiments, if device 600 displays additional image content capture setting affordance 3702a2 as not being selected, device 600 captures additional content of image media in response to a request to capture media. not configured to In some embodiments, if device 600 displays additional video content capture setting affordance 3702a3 as not being selected, device 600 captures additional content of video media in response to a request to capture media. not configured to In FIG. 37F, the device 600 detects a right swipe gesture 3750f at a location corresponding to the bottom of the settings user interface.

図37Gに示すように、右向きスワイプジェスチャ3750fを検出したことに応じて、デバイス600は、図37Dに表示されたように、設定ユーザインタフェースの表示を、カメラユーザインタフェースの表示に置き換える。図37Gでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750gを検出する。 As shown in FIG. 37G, in response to detecting right swipe gesture 3750f, device 600 replaces the display of the settings user interface with the display of the camera user interface, as displayed in FIG. 37D. 37G, device 600 detects tap gesture 3750g at a location corresponding to shutter affordance 610. In FIG.

図37Hに示すように、タップジェスチャ3750gを検出したことに応じて、デバイス600は、図37Gのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、視覚的引裂きを伴わずに人3784bの肩の一部分上に座っている犬3784aの画像)をキャプチャする。更に、タブジェスチャ3750gを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724bで更新する。 As shown in FIG. 37H, in response to detecting tap gesture 3750g, device 600 displays a new media item (eg, photo) (eg, human without visual tearing) corresponding to live preview 630 of FIG. 37G. Image of dog 3784a sitting on part of 3784b's shoulder) is captured. Further, in response to detecting tab gesture 3750g, device 600 updates media collection 624 with newly captured representation 3724b of the media item.

図37Hでは、デバイス600は、右にシフトしている。右にシフトした後、デバイス600は、デバイス600の1つ以上のカメラのうちの1つの更新された視野に基づいて、犬3784aの頭の半分がライブプレビュー630からカットオフされるように、ライブプレビュー630を更新する。図37Hでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750hを検出する。 In FIG. 37H, device 600 is shifted to the right. After shifting to the right, device 600 shifts live so that half of dog 3784a's head is cut off from live preview 630 based on the updated field of view of one of device 600's one or more cameras. Update the preview 630. 37H, device 600 detects tap gesture 3750h at a location corresponding to shutter affordance 610. In FIG.

図37Iに示すように、タップジェスチャ3750hを検出したことに応じて、デバイス600は、図37Hのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、犬3784aの頭の半分を有する画像)をキャプチャする。更に、タップジェスチャ3750hを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724cで更新する。 As shown in FIG. 37I, in response to detecting tap gesture 375Oh, device 600 displays a new media item (eg, photo) corresponding to live preview 630 of FIG. image). Further, in response to detecting tap gesture 3750h, device 600 updates media collection 624 with newly captured representation 3724c of the media item.

図37Iでは、デバイス600は、デバイス600の1つ以上のカメラが、矩形プリズム2432上に座っている人を有する左部分3782に向けられるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Iに示すように、ライブプレビュー630を更新する。例えば、ライブプレビュー630を表示している間に、デバイス600は、カメラディスプレイ領域604内の矩形プリズム2432上に座っている人及びインジケータ領域602内のデバイス600の後カメラの視野内に入ってきた鳥2440を表示する。デバイス600がわずかに傾斜している(例えば、シーンの平面に対してx軸、y軸、及び/又はz軸のうちの1つ以上に沿って回転される)ため、左部分3782の様々な部分は、上記の図24Aの左部分3782と比較して、図37Iのライブプレビュー630内に表示されるように歪む。図37Iにおいて、ライブプレビュー630は、補正されていない垂直遠近歪(例えば、垂直線2434a~2434cは、ライブプレビュー630の底部に向かって、それぞれの点で視覚的に収束するように見える)、水平遠近歪(例えば、水平線2436a~2436bは、ライブプレビュー630において右から左へ動いて収束するように見える)、及び水平線歪(例えば、水平線は、左部分3782で一直線であるとき、ライブプレビュー630内で対角線である)を含む。図37Iでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3750iを検出する。 37I, device 600 has been repositioned such that one or more cameras of device 600 are directed to left portion 3782 with a person sitting on rectangular prism 2432. In FIG. After detecting a change in movement, device 600 updates live preview 630, as shown in FIG. 37I. For example, while displaying live preview 630, device 600 came into view of the camera behind the person sitting on rectangular prism 2432 in camera display area 604 and device 600 in indicator area 602. Display bird 2440 . Since the device 600 is slightly tilted (eg, rotated along one or more of the x-, y-, and/or z-axes with respect to the plane of the scene), various The portion is distorted as displayed in the live preview 630 of FIG. 37I compared to the left portion 3782 of FIG. 24A above. In FIG. 37I, live preview 630 shows uncorrected vertical perspective (eg, vertical lines 2434a-2434c appear to visually converge at each point toward the bottom of live preview 630), horizontal Perspective distortion (e.g., horizon lines 2436a-2436b appear to move from right to left in live preview 630 and converge) and horizon distortion (e.g., horizon lines are straight in live preview 630 when they are straight in left portion 3782). is diagonal at ). 37I, device 600 detects tap gesture 3750i at a location corresponding to shutter affordance 610. In FIG.

図37Jに示すように、タップジェスチャ3750iを検出したことに応じて、デバイス600は、図37Iのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、歪みを有する矩形プリズム2432上に座っている人)をキャプチャする。更に、タップジェスチャ3750iを検出したことに応じて、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724dで更新する。図37Jでは、デバイス600は、メディアコレクション624に対応する位置でのタップジェスチャ3750jを検出し、ここで、タップジェスチャ3750iを検出したことに応じて、キャプチャされたメディアアイテムは、キャプチャされた最後のメディアであり、表現3724dは、メディアコレクション624の上に表示される。 As shown in FIG. 37J, in response to detecting tap gesture 3750i, device 600 displays a new media item (eg, photograph) (eg, on distorted rectangular prism 2432) corresponding to live preview 630 of FIG. 37I. person sitting). Further, in response to detecting tap gesture 3750i, device 600 updates media collection 624 with newly captured representation 3724d of the media item. In FIG. 37J, device 600 detects tap gesture 3750j at a location corresponding to media collection 624, where in response to detecting tap gesture 3750i, the captured media item is the last captured media item. Media, representation 3724 d is displayed above media collection 624 .

図37Kに示すように、タップジェスチャ3750jを検出したことに応じて、デバイス600は、カメラユーザインタフェースを表示することを停止し、代わりに、写真ビューワユーザインタフェースを表示する。写真ビューワユーザインタフェースは、写真ビューワユーザインタフェースの底部で表示されるメディアコレクション624を含む。メディアコレクション624は、上述の図37C~図37Jでキャプチャされたメディアアイテムの表現3724aをそれぞれ含む。表現3724a~dを表示することとともに、写真ビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを送信するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。 As shown in FIG. 37K, in response to detecting tap gesture 3750j, device 600 stops displaying the camera user interface and instead displays the photo viewer user interface. The photo viewer user interface includes a media collection 624 displayed at the bottom of the photo viewer user interface. Media collections 624 each include representations 3724a of the media items captured in FIGS. 37C-37J above. Along with displaying representations 3724a-d, the photo viewer user interface displays editing affordance 644a for editing media, sending affordance 644b for sending captured media, and captured media as favorite media. A favorite affordance 644c for marking, a trash affordance 644d for deleting captured media, and a return affordance 644e for returning to the live preview 630 display.

図37Kでは、タップジェスチャ3750jを検出したことに応じて、デバイス600は、コンテンツ(例えば、データ)が図37Iのインジケータ領域602及びコントロール領域606(及びカメラディスプレイ領域604)の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724dによって表されたメディアアイテムは、完全に処理されていない。換言すれば、デバイス600は、表現3724dによって表されたメディアアイテムをキャプチャしたとき、デバイス600が追加のコンテンツをキャプチャし、メディアアイテムに対応するコンテンツが完全に処理されるのに閾値時間量より少ない時間量が経過したため、コンテンツ処理インジケータ3732を表示する。ここで、表現3724dによって表されたメディアアイテムは、図37Iのライブプレビュー630内に表示されるように、WFOVからのインジケータ領域602及びコントロール領域606の部分及びNFOVからのカメラディスプレイ領域604の一部分からキャプチャされたコンテンツを含む。しかしながら、表現3724dは、NFOVからのカメラディスプレイ領域604の一部分からキャプチャされるコンテンツ飲みを含む。本明細書では、メディアアイテムの表現(例えば、メモリに保存されるデータ構造)は、メディアアイテムのコンテンツ(例えば、データ)の一部分のみを使用して形成され得る。いくつかの実施形態では、コンテンツ処理インジケータ3732は、スピンするアニメーション化されたインジケータである。いくつかの実施形態では、コンテンツ処理インジケータ3732は、処理された要求されたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)に対応する、キャプチャされたコンテンツのパーセンテージを示すように、埋まるアニメーション化されたプログレスバーである。 In FIG. 37K, in response to detecting tap gesture 3750j, device 600 detects content (eg, data) captured from portions of indicator region 602 and control region 606 (and camera display region 604) of FIG. For example, because device 600 is configured to capture additional content, as described above in connection with FIG. not processed by In other words, when device 600 captures the media item represented by representation 3724d, it will take less than the threshold amount of time for device 600 to capture additional content and for the content corresponding to the media item to be fully processed. The content processing indicator 3732 is displayed because the amount of time has elapsed. Here, the media item represented by representation 3724d is displayed from portions of indicator region 602 and control region 606 from WFOV and portions of camera display region 604 from NFOV, as displayed in live preview 630 of FIG. 37I. Contains captured content. However, representation 3724d includes content capture captured from a portion of camera display area 604 from the NFOV. As used herein, a representation of a media item (eg, a data structure stored in memory) may be formed using only a portion of the content (eg, data) of the media item. In some embodiments, content processing indicator 3732 is a spinning animated indicator. In some embodiments, content processing indicator 3732 fills in an animation to indicate the percentage of captured content corresponding to the requested media item (eg, the media item represented by representation 3724d) that has been processed. It is a customized progress bar.

図37Kでは、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツが完全に処理されていないため、デバイス600は、拡大された調整されていない表現3730d1を表示し、これは、調整されなかったメディアアイテムの表現である。ここで、調整されていない表現3730d1は、図37Iのライブプレビュー630内に表示される歪みに類似した、垂直遠近歪、水平遠近歪、及び水平線歪みを含む。調整されていない表現3730d1は、図37Iの領域602及び606内に表示されるコンテンツからキャプチャされたことを使用して、調整がメディアアイテム(表現3724dによって表された)を適用されなかったため、図37I内に表示されるように、カメラディスプレイ領域604内に表示されるコンテンツからキャプチャされたコンテンツのみを含む。例えば、調整されていない表現3730d1は、図37Iのインジケータ領域602内に表示される追加のコンテンツ(例えば、鳥2440)を含まない。調整されていない表現3724d1を表示することとともに、デバイス600はまた、調整されていない表現3730d1と一致する表現3724dを表示する。 In FIG. 37K, because device 600 has not fully processed the content of the media item represented by representation 3724d, device 600 displays enlarged unscaled representation 3730d1, which has not been scaled. It is a representation of a media item. Here, the unadjusted representation 3730d1 includes vertical perspective distortion, horizontal perspective distortion, and horizon distortion similar to the distortion displayed in live preview 630 of FIG. 37I. Using the unadjusted representation 3730d1 captured from the content displayed within regions 602 and 606 of FIG. 37I, FIG. 37I, contains only the content captured from the content displayed within the camera display area 604. For example, unadjusted representation 3730d1 does not include the additional content (eg, bird 2440) displayed within indicator region 602 of FIG. 37I. Along with displaying unadjusted representation 3724d1, device 600 also displays representation 3724d that matches unadjusted representation 3730d1.

図37Lに示すように、表現3724dによって表されたメディアアイテムの追加のコンテンツを処理した後、デバイス600は、コンテンツ処理インジケータ3732が時計回りに回転させるコンテンツ処理インジケータ3732の表示をアニメーション又は更新し続ける。図37Lでは、デバイス600は、表現3724d(例えば、調整されていない表現3730d1)によって表されたメディアアイテムの水平線2438、垂直線2434a~2434c、及び水平線2436a~2436bが補正される必要があるため、コンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)が、領域602及び606(例えば、図37I)内に表示される表現の部分からキャプチャされたコンテンツを使用して補正され得る、1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、垂直補正、水平補正、及びリフレーミング)を含むとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが補正される必要がある1つ以上の視覚アスペクトを含むとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるとの判定を行う。 As shown in FIG. 37L, after processing additional content of the media item represented by representation 3724d, device 600 continues to animate or update the display of content processing indicator 3732 that causes content processing indicator 3732 to rotate clockwise. . In FIG. 37L, device 600 determines that horizontal line 2438, vertical lines 2434a-2434c, and horizontal lines 2436a-2436b of the media item represented by representation 3724d (eg, unaligned representation 3730d1) need to be corrected. A determination is made that the content should be used to compensate the media item represented by representation 3724d. In some embodiments, a previously captured media item (eg, the media item represented by representation 3724d) was captured from portions of the representation displayed within regions 602 and 606 (eg, FIG. 37I). A determination is made to include one or more visual aspects (eg, video stabilization, horizon correction, vertical correction, horizontal correction, and reframing) that may be corrected using the content. In some embodiments, the previously captured media item needs to be corrected based on the calculated confidence belief value determined using the content of the previously captured media item. It is determined that the above visual aspect is included. In some embodiments, a determination is made that a previously captured media item needs to be corrected if the calculated confidence confidence value is above (or equal to) a threshold. In some embodiments, if the calculated confidence belief value is below (or equal to) a threshold, then a determination is made that the previously captured media item needs to be corrected.

デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため(図37Fにおいて上述のように、自動メディア補正設定アフォーダンス3702a1によってアクティブ状態に設定されている)、及びコンテンツ(例えば、図37Iの領域602及び606内に表示される表現の部分からキャプチャされたコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、(追加のユーザ入力なしで)アニメーションを自動的に表示する。アニメーションを表示するときに、デバイス600は、図37Lの部分的に調整された表現3730d2などの更新された表現を表示するように、調整されていない表現3730d1を調整する。すなわち、いくつかの実施形態では、デバイス600は、デバイス600が追加のコンテンツのうちのより多くを処理する間に、調整されていない表現を更新するアニメーションを表示する。図37Lでは、デバイス600は、水平線2438の水平線歪みを補正するように、表現を回転させた。特に、デバイス600が表現を回転させたため、デバイス600は、インジケータ領域602内に表示されるライブプレビュー630の一部分のうちのいくつか(例えば、図37Iの鳥2440)を、一部分的に調整された表現3730d2内に(例えば、表現3724dによって表されたメディアアイテムの追加のコンテンツのうちのいくつかを使用して)表示する。更には、回転により、調整されていない表現3730d1内での対角線から(例えば、水平線2438のいくつかの点が異なるy値を有する)水平線(例えば、水平線の各点が同じy値を有するへ、水平線2438を変更し、かつ水平線2438は、図24Eに関連して論じられた技術を使用して、部分的に調整された表現3730d2内の表現のx軸に沿ってのみ進む。部分的に調整された表現3730d2を表示することとともに、デバイス600はまた、部分的に調整された表現3730d2と一致するように、メディアコレクション624内の表現3724dを更新する。いくつかの実施形態では、デバイス600は、表現3724dを更新したときに、デバイス600が部分的に調整された表現3730d2などの更新された表現を表示するために、調整されていない表現3730d1を調整したときに表示するものと類似のアニメーションを表示する。 Because the device 600 is configured to automatically adjust the captured media (set to the active state by the automatic media correction setting affordance 3702a1, as described above in FIG. 37F), and the content (eg, FIG. 37I) should be used to compensate the media item represented by representation 3724d, device 600: Automatically display animations (without additional user input). When displaying the animation, device 600 adjusts unadjusted representation 3730d1 to display an updated representation, such as partially adjusted representation 3730d2 in FIG. 37L. That is, in some embodiments, device 600 displays an animation that updates the uncoordinated presentation while device 600 processes more of the additional content. In FIG. 37L, device 600 has rotated the representation to correct for horizontal line distortion of horizontal line 2438. In FIG. In particular, because device 600 rotated the representation, device 600 caused some of the portions of live preview 630 displayed within indicator region 602 (eg, bird 2440 in FIG. 37I) to be partially adjusted. Display within representation 3730d2 (eg, using some of the additional content of the media item represented by representation 3724d). Furthermore, the rotation moves from a diagonal line (e.g., some points of the horizontal line 2438 have different y-values) to a horizontal line (e.g., each point of the horizontal line has the same y-value) in the unadjusted representation 3730d1. Alters the horizon line 2438, and the horizon line 2438 advances only along the x-axis of the representation in the partially adjusted representation 3730d2 using the techniques discussed in connection with Figure 24E. Along with displaying the adjusted representation 3730d2, the device 600 also updates the representation 3724d in the media collection 624 to match the partially adjusted representation 3730d2.In some embodiments, the device 600 , when updating representation 3724d, device 600 displays an updated representation, such as partially adjusted representation 3730d2, similar to what it displays when adjusting unadjusted representation 3730d1. display.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため(デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため、及びコンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、アニメーションを表示する)、デバイス600は、自動的に(追加のユーザ入力なしで)、部分的に調整された表現3730d2を、調整された表現3730d3に置き換える。デバイス600は、表現3724dによって表されたメディアアイテムの垂直及び水平視点を更新することによって、調整された表現3730d3を表示する。図37Mにおいて、図37Iでキャプチャされたライブプレビュー630と比較して、調整された表現3730d3は、垂直遠近歪(例えば、垂直線2434a~2434cは、表現3730d1においてより平行に見える)、水平遠近歪(例えば、水平線2436a~2436bは、ライブプレビュー630において右から左へ動いて収束しないように見える)、及び水平線歪(例えば、水平線は、より水平である)がより少ない。ここで、調整された表現3730d3は、図37Iのカメラディスプレイ領域604内に表示されるライブプレビュー630の一部分のうちのいくつか(矩形プリズム2432上に座っている人)、及び図37Iのインジケータ領域602内に表示されるライブプレビュー630の一部分のうちのいくつか(例えば、鳥2440)を含む。上述のように、表現(represented)3724dによって表されたメディアアイテムを使用して、表現を調整するとき、デバイス600は、メディアアイテムの様々な構成要素を補正するために、追加の視覚コンテンツ(例えば、鳥2440)を利用する(例えば、持ち込む)(例えば、図24Dに関連して上述したように)。それにより、デバイス600は、調整された表現3730d3を追加の視覚コンテンツとともに表示する。調整された表現3730d3を表示することとともに、デバイス600はまた、調整された表現3730d3と一致するように、メディアコレクション624内の表現3724dを更新する。 As shown in Figure 37M, in addition to the reasons for displaying the animation described above in Figure 37L, device 600 is fully processing the content of the media item represented by representation 3724d (device 600 is , and because of the determination that the content should be used to compensate the media item represented by representation 3724d, device 600 displays an animation) , device 600 automatically (without additional user input) replaces partially adjusted representation 3730d2 with adjusted representation 3730d3. Device 600 displays adjusted representation 3730d3 by updating the vertical and horizontal viewpoints of the media item represented by representation 3724d. In FIG. 37M, compared to live preview 630 captured in FIG. 37I, adjusted representation 3730d3 shows vertical perspective distortion (eg, vertical lines 2434a-2434c appear more parallel in representation 3730d1), horizontal perspective distortion (eg, horizon lines 2436a-2436b appear to move from right to left in live preview 630 and do not converge) and have less horizon distortion (eg, horizon lines are more horizontal). Here, adjusted representation 3730d3 shows some of the portion of live preview 630 displayed within camera display area 604 of FIG. Includes some of the portion of live preview 630 displayed in 602 (eg, bird 2440). As described above, when using the media item represented by representation 3724d to adjust the representation, device 600 adds additional visual content (e.g., , birds 2440) are utilized (eg, brought in) (eg, as described above in connection with FIG. 24D). Device 600 thereby displays adjusted representation 3730d3 with additional visual content. Along with displaying adjusted representation 3730d3, device 600 also updates representation 3724d in media collection 624 to match adjusted representation 3730d3.

図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため、デバイス600は、デバイス600がメディアアイテムのコンテンツを完全に処理しているため、コンテンツ処理インジケータ3732を、自動調整アフォーダンス1036bに置き換える。自動調整アフォーダンス1036bは、選択されているものとして(例えば、太字、プレスされて)表示され、これは、デバイス600がメディアアイテムの表現(例えば、調整された表現3730d3)を表示していることを示し、ここで、メディアアイテムが1つ以上の調整アルゴリズムに基づいて調整されている。図37Mでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのタップジェスチャ3750mを検出する。 As shown in FIG. 37M, because device 600 has fully processed the content of the media item represented by representation 3724d, in addition to the reasons for displaying the animation described above in FIG. Since we are fully processing the content of the media item, content processing indicator 3732 is replaced with auto-adjust affordance 1036b. Auto-adjust affordance 1036b is displayed as selected (eg, bold, pressed) indicating that device 600 is displaying a representation of the media item (eg, adjusted representation 3730d3). 10A and 10B, wherein media items have been adjusted based on one or more adjustment algorithms. In FIG. 37M, device 600 detects tap gesture 3750m at a location corresponding to auto-tuning affordance 1036b.

図37Nに示すように、タップジェスチャ3750mを検出したことに応じて、デバイス600は、図37Kに関連して上述したように、調整されなかった表現3724dによって表されたメディアアイテムである、拡大された調整されていない表現3730d1を表示する。換言すれば、デバイス600は、タップジェスチャ3750mを検出したことに応じて、図37K~図37Lにおいて行われた調整を復元する。更には、タップジェスチャ37350mを検出したことに応じて、デバイス600は、自動調整アフォーダンスが未選択(例えば、太字でなく、プレスされていない)であるものとして表示されるように、自動調整アフォーダンス1036bの表示を更新し、かつ調整されていない表現3730d1と一致するように、メディアコレクション624内の3724bの表現を更新する。図37Nでは、デバイス600は、メディアコレクション624における表現3724bに対応する位置でのタップジェスチャ3750nを検出する。 As shown in FIG. 37N, in response to detecting tap gesture 3750m, device 600 magnifies the media item represented by unadjusted representation 3724d, as described above with respect to FIG. 37K. display the adjusted unadjusted representation 3730d1. In other words, device 600 restores the adjustments made in FIGS. 37K-37L in response to detecting tap gesture 3750m. Further, in response to detecting tap gesture 37350m, device 600 causes auto-adjust affordance 1036b to be displayed as unselected (e.g., not bold and not pressed). and update the representation of 3724b in media collection 624 to match the unadjusted representation 3730d1. 37N, device 600 detects tap gesture 3750n at a location corresponding to representation 3724b in media collection 624. In FIG.

図37Oに示すように、タップジェスチャ3750nを検出したことに応じて、デバイス600は、拡大された調整されていない表現3730d1を、調整されていない表現3730b1に置き換え、これは、メディアコレクション624内に表現3724bによって表されたメディアアイテムに対応する。更に、タップジェスチャ3750nを検出したことに応じて、デバイス600は、自動調整アフォーダンス1036bの表示を、コンテンツ処理インジケータ3732に置き換える。デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732を表示する。例えば、デバイス600は、コンテンツが図37Dのインジケータ領域602及びコントロール領域606の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724bによって表されたメディアアイテムのコンテンツは、完全に処理されていない。 As shown in FIG. 37O, in response to detecting tap gesture 3750n, device 600 replaces expanded unadjusted representation 3730d1 with unadjusted representation 3730b1, which is in media collection 624. Corresponds to the media item represented by representation 3724b. Further, in response to detecting tap gesture 3750 n , device 600 replaces the display of auto-adjust affordance 1036 b with content processing indicator 3732 . Device 600 displays content processing indicator 3732 for reasons similar to those discussed in connection with processing the media item represented by representation 3724d of FIG. 37K. For example, device 600 may not be able to capture additional content because content was captured from portions of indicator region 602 and control region 606 of FIG. configured), the content of the media item displaying content processing indicator 3732 and represented by representation 3724b has not been completely processed.

図37Pに示すように、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行う。図37Bでは、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行い、デバイス600は、表現3724bによって表されたメディアアイテムの調整された表現を表示することをやめ、かつ調整されていない表現3730b1の表示を維持する。更には、キャプチャされたコンテンツが表現3724bによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行うため、デバイス600は、デバイス600が表現3724bによって表されたメディアアイテムのコンテンツを完全に処理したときに、非選択可能自動調整インジケータ3734を表示する。非選択可能自動調整インジケータ3734は、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がキャプチャされたことを示す。しかしながら、非選択可能自動調整インジケータ3734は、自動調整アフォーダンス1036bのように機能しない(タップジェスチャ3750mに関連して上述したように)。すなわち、自動調整アフォーダンス1036bは、非選択可能自動調整インジケータ3734に対応する位置でのジェスチャに応じて、表示表現を調整しない。いくつかの実施形態では、デバイス600が、追加のコンテンツが表現3724bによって表されたメディアアイテムの自動調整に使用される必要があると判定したが、追加のコンテンツは、表現3724bによって表されたメディアアイテムに関連する1つ以上の動作(例えば、手動での編集)で使用するのに利用可能なままである。図37Pでは、デバイス600は、非選択可能自動調整インジケータ3734に対応する位置でのタップジェスチャ3750pを検出する。 As shown in FIG. 37P, device 600 fully processes the content of the media item represented by representation 3724b, and the captured content (eg, additional content) corrects the media item represented by representation 3724d. make a determination that it need not be used to In FIG. 37B, device 600 fully processes the content of the media item represented by representation 3724b, and captures content (eg, additional content) to correct the media item represented by representation 3724d. Having determined that it should not be used, device 600 ceases displaying the adjusted representation of the media item represented by representation 3724b and continues to display unadjusted representation 3730b1. Further, in order to determine that the captured content does not need to be used to compensate the media item represented by representation 3724b, device 600 may use the media item represented by representation 3724b to Display the non-selectable auto-adjustment indicator 3734 when the content has been fully processed. Non-selectable auto-adjust indicator 3734 indicates that additional content (eg, content captured from regions 602 and 606) has been captured. However, non-selectable auto-tuning indicator 3734 does not function like auto-tuning affordance 1036b (as described above with respect to tap gesture 3750m). That is, auto-adjust affordance 1036 b does not adjust the display representation in response to gestures at locations corresponding to non-selectable auto-adjust indicators 3734 . In some embodiments, device 600 determined that additional content should be used to automatically adjust the media item represented by representation 3724b, but the additional content is It remains available for use in one or more actions related to the item (eg, manual editing). 37P, device 600 detects tap gesture 3750p at a location corresponding to non-selectable auto-adjustment indicator 3734. In FIG.

図37Qに示すように、タップジェスチャ3750pに応じて、デバイス600は、表現3724bによって表されたメディアアイテムの新しい表現を表示する及び非選択可能自動調整インジケータ3734を更新することをやめる。換言すれば、タップジェスチャ3750pに応じて、デバイス600は、図37Pに表示されたのと同じ方法で、調整されていない表現3730b1及び非選択可能自動調整インジケータ3734を表示し続ける。 In response to tap gesture 3750p, device 600 ceases to display a new representation of the media item represented by representation 3724b and to update non-selectable auto-adjust indicator 3734, as shown in FIG. 37Q. In other words, in response to tap gesture 3750p, device 600 continues to display unadjusted representation 3730b1 and non-selectable auto-adjust indicator 3734 in the same manner as displayed in FIG. 37P.

図37K~図37Qに戻ると、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がメディアを補正するために使用される必要があるとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた(図37K~図37Nに関連して上述したように)後に、選択可能自動調整アフォーダンスを表示し、かつメディアの表現を自動的に調整する。しかしながら、いくつかの実施形態では、追加のコンテンツがメディアを補正するために使用される必要がないとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた後に、非選択可能自動調整インジケータ3734を表示し、かつメディアの表現を調整しない(図37O~図37Qに関連して上述したように)。図37Qでは、デバイス600は、写真ビューワユーザインタフェースの底部に対応する位置での右向きスワイプジェスチャ3750qを検出する。 37K-37Q, when determining that additional content (eg, content captured from regions 602 and 606) should be used to compensate the media, device 600: After the device 600 has fully processed the content of the media and additional content has been captured (as described above in connection with FIGS. 37K-37N), display selectable auto-adjust affordances and render the media. automatically adjust. However, in some embodiments, when making a determination that additional content does not need to be used to compensate the media, the device 600 determines that the device 600 has fully processed the content of the media and After additional content has been captured, display the non-selectable auto-adjustment indicator 3734 and do not adjust the presentation of the media (as described above with respect to FIGS. 37O-37Q). In FIG. 37Q, the device 600 detects a right swipe gesture 3750q at a location corresponding to the bottom of the photo viewer user interface.

図37Rに示すように、右向きスワイプジェスチャ3750qを検出したことに応じて、デバイス600は、写真ビューワユーザインタフェースの表示を、設定ユーザインタフェースの表示に置き換え、ここで、自動メディア補正設定アフォーダンス3702a1は、選択されているものとして表示される(図Fに関連して論じられるように)。図37Rでは、デバイス600は、自動メディア補正設定アフォーダンス3702a1に対応する位置でのタップジェスチャ3750rをする。 As shown in FIG. 37R, in response to detecting the right swipe gesture 3750q, the device 600 replaces the display of the photo viewer user interface with the display of the settings user interface, where the automatic media correction settings affordance 3702a1: It is displayed as selected (as discussed in connection with Figure F). In FIG. 37R, device 600 makes tap gesture 3750r at a location corresponding to automatic media correction setting affordance 3702a1.

図37Sに示すように、タップジェスチャ3750rを検出したことに応じて、デバイス600は、自動メディア補正設定アフォーダンス3702a1が選択されるように、自動メディア補正設定アフォーダンス3702a1の表示を更新する。未選択の(非アクティブ状態に設定された)自動メディア補正設定アフォーダンス3702a1は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないことを示す。図37Sでは、デバイス600は、設定ユーザインタフェースの底部に対応する位置での左向きスワイプジェスチャ3750sを検出する。 As shown in FIG. 37S, in response to detecting tap gesture 3750r, device 600 updates the display of automatic media correction setting affordance 3702a1 such that automatic media correction setting affordance 3702a1 is selected. An unselected (set to inactive state) automatic media correction setting affordance 3702a1 indicates that the device 600 is not configured to automatically adjust captured media. In FIG. 37S, the device 600 detects a left swipe gesture 3750s at a location corresponding to the bottom of the settings user interface.

図37Tに示すように、スワイプジェスチャ3750sを検出したことに応じて、デバイス600は、調整されていない表現3730c1を表示する(タップジェスチャ3750nに関連して上述したものと同様の技術を使用して、メディアコレクション624内の表現3724cの位置に対応する、タップジェスチャによって以前にナビゲーションされたように)。調整されていない表現3730c1は、メディアコレクション624内の表現3724cに対応する。更に、タップジェスチャ3750sを検出したことに応じて、デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732とともに、自動調整アフォーダンス1036bを表示する。 As shown in FIG. 37T, in response to detecting swipe gesture 3750s, device 600 displays uncoordinated representation 3730c1 (using techniques similar to those described above with respect to tap gesture 3750n). , as previously navigated by the tap gesture, which corresponds to the location of representation 3724c within media collection 624). Unadjusted representation 3730 c 1 corresponds to representation 3724 c in media collection 624 . Further, in response to detecting tap gesture 3750s, device 600, for reasons similar to those discussed in connection with processing the media item represented by representation 3724d of FIG. 37K, along with content processing indicator 3732: Display auto-tuning affordance 1036b.

図37Uに示すように、デバイス600が表現3724cによって表されたメディアアイテム(例えば、犬3784aの頭の一部分がなくなっている画像)のコンテンツを完全に処理したため、及びデバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sで論じられたように)、デバイス600は、アニメーション又は調整された表現を表示することをやめる。換言すれば、デバイス600がキャプチャされたメディアを自動的に調整するように構成されているときに図37M~図37Nに論じられるように自動的に調整された表現を表示することとは対照的に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、調整されていない表現3730c1の表示を維持する。更に、デバイス600は、未選択であるものとして自動調整アフォーダンス1036bを表示する。ここで、デバイス600は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sに論じられるように)、選択される代わりに(例えば、図37M)、未選択であるものとして自動調整アフォーダンス1036bを表示する。加えて、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行ったため、非選択可能自動調整インジケータ3734の代わりに、自動調整アフォーダンス1036bを表示する。特に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行いつつも、表現3724cによって表されたメディアアイテムの調整された表現を表示することをやめる。図37Uでは、デバイス600は、自動調整アフォーダンス1036bに対応する位置でのジェスチャ3750uを検出する。 As shown in FIG. 37U, because device 600 has fully processed the content of the media item represented by representation 3724c (eg, image of dog 3784a with a portion of its head missing), and device 600 has captured the captured media Because it is not configured to automatically adjust (as discussed in FIG. 37S), device 600 ceases to display animations or adjusted representations. In other words, as opposed to displaying an automatically adjusted representation as discussed in FIGS. 37M-37N when the device 600 is configured to automatically adjust the captured media. However, since device 600 is not configured to automatically adjust captured media, device 600 maintains the display of unadjusted representation 3730c1. Additionally, the device 600 displays the auto-tuning affordance 1036b as unselected. Here, instead of being selected (e.g., FIG. 37M), device 600 is not configured to automatically adjust captured media (as discussed in FIG. 37S). Display auto-tuning affordance 1036b as being a choice. In addition, device 600 has determined that the content should be used to compensate the media item represented by representation 3724c, so instead of non-selectable auto-adjust indicator 3734, auto-adjust affordance 1036b display. In particular, since device 600 is not configured to automatically adjust captured media, device 600 should be used to compensate the media item whose content is represented by representation 3724c. While making the determination, refrain from displaying the adjusted representation of the media item represented by representation 3724c. In FIG. 37U, device 600 detects gesture 3750u at a location corresponding to auto-adjust affordance 1036b.

図37Vに示すように、ジェスチャ3750uを検出したことに応じて、デバイス600は、調整されていない表現3730c1を、調整された表現3730c2に置き換える。調整された表現3730c2は、調整されていない表現3730c1内に以前に表示されなかった犬3784a(例えば、識別されたオブジェクト)の頭の一部分を含む。ここで、デバイス600は、犬3784aの頭のより多くを表示するために追加のコンテンツ内(例えば、領域602、606内、及び/又は図37Hのライブプレビュー630の一部として表示されなかったカメラディスプレイ領域604の面上の部分)に導入することによって、犬3784aの頭にリフレームする。いくつかの実施形態では、デバイス600は、ジェスチャ3750uを検出したことに応じて、各部分的に調整された表現が以前のものよりも調整された表現3730c1に近い、いくつかの部分的に調整された表現を表示することによって、調整されていない表現3730c1をリフレーミングするアニメーションを表示する。調整された表現3730c2を表示することとともに、デバイス600はまた、調整された表現3730c2と一致するように、メディアコレクション624内の表現3724cを更新する。更に、ジェスチャ3750uを検出したことに応じて、デバイス600は、自動調整アフォーダンス1036bが選択されているものとして表示されるように、自動調整アフォーダンス1036bを更新する。図37Vでは、デバイス600は、メディアコレクション624における表現3724aに対応する位置でのジェスチャ3750vを検出する。 As shown in FIG. 37V, in response to detecting gesture 3750u, device 600 replaces unadjusted representation 3730c1 with adjusted representation 3730c2. Adjusted representation 3730c2 includes a portion of the head of dog 3784a (eg, the identified object) that was not previously displayed in unadjusted representation 3730c1. Here, the device 600 has added additional content (e.g., within regions 602, 606 and/or cameras not displayed as part of the live preview 630 of FIG. 37H) to display more of the head of the dog 3784a. The head of dog 3784a is reframed by introducing a portion of display area 604 above the plane). In some embodiments, in response to detecting gesture 3750u, device 600 adjusts several partially adjusted representations, each partially closer to adjusted representation 3730c1 than the previous one. Displaying the adjusted representation 3730c1 displays an animation reframing the unadjusted representation 3730c1. Along with displaying adjusted representation 3730c2, device 600 also updates representation 3724c in media collection 624 to match adjusted representation 3730c2. Further, in response to detecting gesture 3750u, device 600 updates auto-adjust affordance 1036b such that auto-adjust affordance 1036b is displayed as being selected. 37V, device 600 detects gesture 3750v at a location corresponding to representation 3724a in media collection 624. In FIG.

図37Wに示すように、ジェスチャ3750vを検出したことに応じて、デバイス600は、表現3730aを表示し、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bの表示することをやめる。図37Wにおいて、デバイス600は、(調整できない)表現3730aを表示し、表現3734aによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示することをやめる。37B~37Dに戻ると、デバイス600が図37C~図37Dにおいて表現3724aによって表されたメディアアイテムをキャプチャしたとき、デバイス600は、追加のコンテンツをキャプチャするように構成されなかった(追加のコンテンツアフォーダンス3702aが図37Bにおいてオフに設定されたため)。この実施例では、表現3724aによって表されたメディアアイテムをキャプチャしたとき、カメラの視野の外側にある追加のコンテンツは、キャプチャされない。図37Wに戻ると、いくつかの実施形態では、デバイス600は、表現3730aを表示し、追加のコンテンツがキャプチャされる場合であっても、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bを表示することをやめる。いくつかの実施形態では、デバイス600は、追加のコンテンツが保存されないように、キャプチャされた追加のコンテンツが使用不可であることを判定する(例えば、画像内の視覚的引裂きは、視覚的引裂きの特定の閾値レベルを上回るとき)。 As shown in FIG. 37W, in response to detecting gesture 3750v, device 600 displays representation 3730a and prompts to display content processing indicator 3732, non-selectable auto-tuning indicator 3734, and auto-tuning affordance 1036b. stop. In FIG. 37W, device 600 displays (non-adjustable) representation 3730a and indicators 3732 and 3734 and affordances 3732 and 3734 and affordances because device 600 did not capture additional content when capturing the media item represented by representation 3734a. Stop displaying 1036b. Returning to 37B-37D, when device 600 captured the media item represented by representation 3724a in FIGS. 37C-37D, device 600 was not configured to capture additional content (additional content affordance 3702a was set to OFF in FIG. 37B). In this example, additional content outside the camera's field of view is not captured when the media item represented by representation 3724a is captured. Returning to FIG. 37W, in some embodiments, device 600 displays representation 3730a, content processing indicator 3732, non-selectable auto-adjustment indicator 3734, and content processing indicator 3734, even if additional content is captured. Stop displaying auto-adjust affordance 1036b. In some embodiments, the device 600 determines that the additional content captured is unavailable so that the additional content is not saved (e.g., visual tearing in the image may indicate visual tearing). above a certain threshold level).

図37X~図37AAは、図37K~図37Vに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。具体的には、図37Xは、表現3724zによって表されたメディアアイテムの調整された表現である、調整された表現3730z1を表示するデバイス600を示す。更に、図37Xは、(タップジェスチャ3750mに関連して上述したものと同様の技術を使用して)選択されると、デバイス600に、表現3724zによって表されたメディアアイテムの調整されていない表現を表示させる、自動調整アフォーダンス1036bを表示するデバイス600を示す。図37Xでは、デバイス600は、メディアアイテムを閲覧する要求(例えば、メディアコレクション624における表現3724zに対応する位置でのタップジェスチャ)が行われた前に、デバイス600が表現3724zで表されるメディアアイテムのコンテンツを完全に処理したため、コンテンツ処理インジケータ3732を表示することなく、調整された表現3724z1及び自動調整アフォーダンス1036bを表示する。更には、デバイス600は、追加のコンテンツがビデオメディアを安定化するために使用される必要があるとデバイス600が判定したため、調整された表現3730z1及び自動調整アフォーダンス1036bを表示する。ここで、調整された表現3730z1は、追加のコンテンツを使用して修正された表現3724z(例えば、より不安定であるビデオ)によって表されたメディアアイテムの1つ以上の修正されたフレームを含む。ここで、デバイス600は、表現3724zによって表されたメディアアイテムがキャプチャされ、各ビデオフレームについて、追加のコンテンツを使用して(例えば、表現3724zによって表されたメディアアイテムがキャプチャされたときの領域602及び606内)、表現3724zによって表されたメディアアイテムがキャプチャされたときに、カメラディスプレイ領域604内に表示されるコンテンツのシフトから得られた1つ以上のギャップを埋めるときに、カメラディスプレイ領域604内に表示されるシフトされたコンテンツを有する。図37Xでは、デバイス600は、メディアコレクション624における表現3724yに対応する位置でのタップジェスチャ3750xを検出する。 Figures 37X-37AA show exemplary user interfaces for adjusting other media (eg, video media) using techniques similar to those described in connection with Figures 37K-37V. Specifically, FIG. 37X shows device 600 displaying adjusted representation 3730z1, which is an adjusted representation of the media item represented by representation 3724z. Further, FIG. 37X shows that when selected (using techniques similar to those described above with respect to tap gesture 3750m), device 600 displays an unadjusted representation of the media item represented by representation 3724z. Device 600 is shown displaying auto-adjusting affordance 1036b as displayed. In FIG. 37X, device 600 displays the media item represented by representation 3724z before a request to view the media item is made (eg, a tap gesture at a location corresponding to representation 3724z in media collection 624). , content processing indicator 3732 is not displayed, adjusted representation 3724z1 and automatic adjustment affordance 1036b are displayed. Further, device 600 displays adjusted representation 3730z1 and auto-adjust affordance 1036b because device 600 determined that additional content should be used to stabilize the video media. Here, adjusted representation 3730z1 includes one or more modified frames of the media item represented by representation 3724z modified using additional content (eg, a video that is less stable). Here, device 600 captures the media item represented by representation 3724z and, for each video frame, uses additional content (eg, region 602 when the media item represented by representation 3724z was captured). and in 606), camera display area 604 when filling one or more gaps resulting from shifting content displayed in camera display area 604 when the media item represented by representation 3724z was captured. with the shifted content displayed within. 37X, device 600 detects tap gesture 3750x at a location corresponding to representation 3724y in media collection 624. In FIG.

図37Yに示すように、タップジェスチャ3750xを検出したことに応じて、デバイス600は、調整された表現3730z1の表示を、調整されていない表現3730y1の表示に置き換え、これは、表現3724yによって表されたメディアアイテムの調整された表現である。図37X~図37Yでは、デバイス600は、キャプチャされたメディアを自動的に調整しないように構成された(例えば、非アクティブ状態に設定された自動メディア補正設定アフォーダンス3702a1)。図37Yでは、デバイス600が、追加のコンテンツがメディアを補正する(例えば、ビデオメディアを安定化する)のに使用される必要があるとの判定を判定したが、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、表現3724zによって表されたメディアアイテムの調整されていない表現を表示する。更に、デバイス600は、類似の理由で未選択であるものとして1036bを表示する。図37Yでは、デバイス600は、表現3724xに対応する位置でのタップジェスチャ3750yを検出する。 As shown in FIG. 37Y, in response to detecting tap gesture 3750x, device 600 replaces display of adjusted representation 3730z1 with display of unadjusted representation 3730y1, which is represented by representation 3724y. is a tailored representation of a media item. In FIGS. 37X-37Y, the device 600 was configured not to automatically adjust the captured media (eg, auto media correction setting affordance 3702a1 set to inactive state). In FIG. 37Y, device 600 has determined that additional content needs to be used to compensate the media (e.g., stabilize the video media), but device 600 has determined that the captured media is Not configured to automatically adjust, device 600 displays an unadjusted representation of the media item represented by representation 3724z. Additionally, device 600 displays 1036b as unselected for similar reasons. In FIG. 37Y, device 600 detects tap gesture 3750y at a location corresponding to representation 3724x.

図37Zに示すように、タップジェスチャ3750yを検出したことに応じて、デバイス600は、追加のコンテンツがキャプチャされ、かつ追加のコンテンツが表現3724xによって表されたメディアアイテム(例えば、ビデオメディア安定化させる)を補正するために使用される必要がないとの判定を行うため、調整されていない表現3730x1(表現3724xによって表されたメディアアイテムに対応する)及び非選択可能自動調整インジケータ3734を表示する。図37Zでは、デバイス600は、表現3724wに対応する位置でのタップジェスチャ3750zを検出する。 As shown in FIG. 37Z, in response to detecting tap gesture 3750y, device 600 captures additional content and causes device 600 to capture a media item (e.g., video media stabilize) represented by representation 3724x. ), the unadjusted representation 3730x1 (corresponding to the media item represented by representation 3724x) and non-selectable auto-adjustment indicator 3734 are displayed. In FIG. 37Z, device 600 detects tap gesture 3750z at a location corresponding to representation 3724w.

図37AAに示すように、タップジェスチャ3750zを検出したことに応じて、デバイス600は、表現3730wを表示し、これは、表現3724wによって表されたメディアアイテムに対応する。デバイス600は、表現3730wを表示し、表現3724wによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示することをやめる。 As shown in FIG. 37AA, in response to detecting tap gesture 3750z, device 600 displays representation 3730w, which corresponds to the media item represented by representation 3724w. When device 600 displays representation 3730w and captures the media item represented by representation 3724w, device 600 ceases to display indicators 3732 and 3734 and affordance 1036b because device 600 did not capture additional content.

メディアアイテムの自動調整は、上記の図37A~図37AAの説明に使用される画像及びビデオメディアに限定されるものではない。例えば、いくつかの実施形態では、デバイス600は、オーディオを含むメディア(例えば、ビデオ、オーディオ記録)をキャプチャする。いくつかの実施形態では、デバイス600は、ビームフォーミングを使用することによって、当初キャプチャされたオーディオを調整する。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のマイクロフォンを使用して、メディア内のオブジェクト又は対象にズームするときに判定される方向入力に基づいて、単一の出力を生成する。 Automatic adjustment of media items is not limited to image and video media used in the description of Figures 37A-37AA above. For example, in some embodiments, device 600 captures media that includes audio (eg, video, audio recording). In some embodiments, device 600 adjusts the originally captured audio by using beamforming. In some embodiments, device 600 generates a single output based on directional input determined when zooming to an object or subject in the media using one or more microphones of device 600. do.

図38A~図38Cは、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法3800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 38A-38C are flow diagrams illustrating methods for editing captured media using an electronic device, according to some embodiments. Method 3800 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some operations of method 3800 are optionally combined, some operations are optionally reordered, and some operations are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法3800は、いくつかの実施形態による、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための直感的な仕方を提供する。この方法は、キャプチャされたメディアを調整する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に調整されたメディアにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 3800 provides an intuitive way to automatically adjust media captured using an electronic device, according to some embodiments. This method reduces the cognitive burden on the user in adjusting captured media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to access conditioned media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイスを含む。電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、領域604に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第1のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))及び1つ以上のカメラの視野の第2の部分(例えば、領域602及び606に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第2のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含む、以前にキャプチャされたメディアアイテム(例えば、静止画像、ビデオ)の表現を表示する要求(例えば、3750j、3750n、3750v、3750w、3750x、3750y、3750z)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する(3802)。 An electronic device (eg, 600) includes a display device. The electronic device may be a first portion (eg, content corresponding to live preview 630 displayed in region 604) of one or more cameras' fields of view (eg, a major or central portion of one or more cameras' fields of view). First content (e.g., image data (e.g., images stored on a computer system data)) and a second portion of one or more cameras' fields of view (e.g., content corresponding to live preview 630 displayed in regions 602 and 606) (e.g., a major or central portion of one or more cameras' fields of view). a portion of the field of view of one or more cameras captured by a different camera of the one or more cameras that is outside of and optionally the main or central portion of the field of view of the one or more cameras) A request (e.g., 3750j, 3750n, 3750v, 3750w, 3750x, 3750y, 3750z) (e.g. thumbnail image selection, image capture affordances (e.g. selectable user interface objects) (e.g. displayed in the first region when activated). (3802).

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつ自動メディア補正基準が満たされているとの判定に従って(3806)、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示する(3810)。いくつかの実施形態では、自動メディア補正基準は、メディアが特定の時間フレーム中にキャプチャされたときに満たされる1つ以上の基準を含み、メディアは、閲覧されず、メディアは、第2の表現を含み、メディアは、第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)を含む。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第1のコンテンツの少なくとも一部の表現及びコンテンツの少なくとも一部の表現を表示することを含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツ(又は第1のコンテンツ)の少なくともいくつかの表現を表示することを含まず、代わりに、第1のコンテンツ及びコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツの少なくともいくつかを表示せずに、第2のコンテンツの少なくとも一部を使用して生成され得る。所定の条件が満たされているときに、調整されたキャプチャされたメディアの表現(例えば、第1及び第2のコンテンツを含む表現)を表示することにより、ユーザは、手動で調整されるべき画像の部分を調整する必要なく、調整されたメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a previously captured representation of a media item (3804), and in accordance with determining that automatic media correction criteria are met (3806), the electronic device, via the display device, to display (3810) a representation of a previously captured media item (eg, 3730d3) that includes a combination of the first content and the second content. In some embodiments, the automatic media correction criteria include one or more criteria that are met when media is captured during a particular time frame, the media is not viewed, and the media is captured in the second representation. and the media includes one or more visual aspects (eg, video stabilization, horizon correction, skew/distortion (eg, horizontal, vertical) correction) that may be corrected using the second content. In some embodiments, the representation of the media item including the combination of the first and second content is a corrected version (e.g., stabilized, horizontal corrected, vertical viewpoint corrected, horizontal viewpoint corrected) of the representation of the media. be. In some embodiments, rendering a media item that includes a combination of first and second content includes displaying a representation of at least a portion of the first content and a representation of at least a portion of the content. In some embodiments, representation of a media item that includes a combination of first content and second content does not include displaying at least some representation of the second content (or the first content). Alternatively, a representation of a media item including the first content and the combination of content may be generated using at least a portion of the second content without displaying at least some of the second content. By displaying an adjusted representation of the captured media (e.g., a representation including first and second content) when predetermined conditions are met, the user can manually adjust the image to be adjusted. The adjusted media presentation can be quickly viewed without having to adjust the parts of the Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつ自動メディア補正基準が満たされていないとの判定に従って(3810)、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730b1、3730c1)を表示する(3816)。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現は、補正されていない(例えば、水平線を安定化させ、補正し、メディアの垂直又は水平視点を補正するために、第2のコンテンツを使用して補正された)表現である。所定の条件が満たされているときに、調整されなかったキャプチャされたメディアの表現(例えば、第1のコンテンツを含むが、第2のコンテンツを含まない表現)を表示することにより、ユーザは、メディアが自動的に調整された場合に行われる必要がある調整を手動で反転する必要なく、調整されなかったメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a previously captured representation of the media item (3804), and following a determination that the automatic media correction criteria are not met (3810), the electronic device, via the display device, display 3816 representations of previously captured media items (eg, 3730b1, 3730c1) that include the first content and do not include the second content. In some embodiments, the representation of the previously captured media item that includes the first content and does not include the second content is uncorrected (e.g., horizons are stabilized, corrected, It is a representation that has been corrected using secondary content to correct the vertical or horizontal viewpoint of the media. By displaying an unadjusted representation of the captured media (e.g., a representation that includes the first content but does not include the second content) when a predetermined condition is met, the user can: Representations of unadjusted media can be quickly viewed without having to manually reverse the adjustments that would have been made if the media had been adjusted automatically. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する前に、表示デバイスを介して、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含むカメラユーザインタフェースを表示する。いくつかの実施形態では、第1の領域は、1つ以上のカメラの視野の第1の部分の表現を含む。いくつかの実施形態では、カメラユーザインタフェースは、第2の領域(例えば、602、606)(例えば、カメラコントロール領域)を含む。いくつかの実施形態では、第2の領域は、1つ以上のカメラの視野の第2の部分の表現を含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、第1の部分の表現と視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明オーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域の上方及び/又は下方に位置する。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, prior to receiving a request to display a previously captured representation of a media item, via a display device, a first region (eg, 604) (eg, a camera display region) is displayed. Display the camera user interface. In some embodiments, the first region includes a representation of the first portion of the field of view of one or more cameras. In some embodiments, the camera user interface includes a second area (eg, 602, 606) (eg, camera control area). In some embodiments, the second region includes a representation of the second portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of the one or more cameras is visually distinct (eg, has a darker appearance) from the representation of the first portion (eg, one or more (with a semi-transparent overlay over a second portion of the camera's field of view). In some embodiments, the representation of the second portion of the field of view of the one or more cameras has a darker appearance compared to the representation of the first portion of the field of view of the one or more cameras. In some embodiments, representations of the second portion of the field of view of one or more cameras are located above and/or below the camera display area within the camera user interface. By displaying a second region that is visually distinct from the first region, content that is the main content that is captured and used to display the media and additional content that can be captured to display the media. Provide a feed to the user and allow the user to frame the media to keep things in/out of different areas when capturing the media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、自動メディア補正基準が満たされているとの判定に従って(3806)、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンス(例えば、例えば、図37Mの1036b)(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す、第1の状態(例えば、アクティブ状態(例えば、選択されているものとして示される(例えば、押圧される、太字として、暗色化されて、第1の色で、第1の文字又はマークとともに表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))を表示する(3814)。自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, upon determining 3806 that the automatic media correction criteria have been met, the electronic device performs a first automatic adjustment indicating that the automatic adjustment was applied to the previously captured media item. Affordances (e.g., 1036b in FIG. 37M) (e.g., in a first state (e.g., an active state (e.g., as selected) indicating that automatic adjustments have been applied to previously captured media items) shown (e.g., pressed, displayed as bold, darkened, in a first color, with a first letter or mark)))))))). interface object)) is displayed (3814). To provide feedback to the user on the current state of the affordance by displaying the auto-adjustment affordance to indicate that the auto-adjustment is applied, and to reverse the adjustment applied to the representation when the user activates the icon. provide visual feedback to the user indicating that the action of By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、自動メディア補正基準が満たされていないとの判定に従って(3808)、電子デバイスは、第2の自動調整アフォーダンス(例えば、例えば図37Uの1036b)を表示する(3818)。いくつかの実施形態では、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なる。いくつかの実施形態では、第2のコンテンツを使用して、メディアを補正することができるとの判定に従って、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第3の自動調整アフォーダンスを表示し、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス)を表示する。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なり、及び第2のコンテンツがメディアを補正するために使用されないとの判定に従って、電子デバイスは、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスを表示することをやめる。いくつかの実施形態では、メディア内の第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)の分析に基づいて、第2のコンテンツがメディアを補正するために使用され得るとの判定を行う。いくつかの実施形態では、分析は、信頼度確信スコアを計算し、信頼度確信スコアを閾値と比較することを含む。いくつかの実施形態では、信頼度確信スコアが閾値を上回る(又は等しい)場合、コンテンツがメディアを補正するために使用され得るとの判定を行う。自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現への調整を実行するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, upon determining (3808) that the automatic media correction criteria are not met, the electronic device displays (3818) a second auto-adjust affordance (eg, eg, 1036b in FIG. 37U). In some embodiments, a second auto-adjustment affordance that indicates that the auto-adjustment has not been applied to the previously captured media item (e.g., that the auto-adjustment has not been applied to the previously captured media item , indicating a second state (e.g., inactive state (e.g., indicated as unselected (e.g., not pressed, not bold or bright, displayed in a second color with a second letter or mark) (e.g. selectable user interface objects)). In some embodiments, the second auto-adjusting affordance is visually different than the first auto-adjusting affordance. In some embodiments, upon determining that the media can be corrected using the second content, the electronic device indicates that automatic adjustments have not been applied to the previously captured media item. A second auto-adjustment affordance (e.g., auto-adjustment applied to a previously captured media item) that displays a third auto-adjustment affordance and indicates that the auto-adjustment has not been applied to the previously captured media item. A second state (e.g., inactive state (e.g., indicated as unselected, e.g., not pressed, not bold or bright, with a second letter or mark), indicating that it is not selected. Show auto-adjusting affordances), shown in colors))). In some embodiments, the second auto-adjusting affordance is visually different than the first auto-adjusting affordance, and following determining that the second content is not used to compensate the media, the electronic device , stop displaying the first auto-tuning affordance and the second auto-tuning affordance. In some embodiments, one or more visual aspects (e.g., video stabilization, horizon correction, skew/distortion (e.g., horizontal, vertical) correction) that may be corrected using secondary content in the media A determination is made that the second content can be used to compensate the media based on the analysis of . In some embodiments, the analysis includes calculating a confidence confidence score and comparing the confidence confidence score to a threshold. In some embodiments, if the reliability confidence score is above (or equal to) a threshold, then a determination is made that the content can be used to compensate the media. Providing feedback to the user on the current state of the affordance by displaying the auto-adjustment affordance to indicate that no auto-adjustment is applied, and providing behavior for performing adjustments to the presentation when the user activates the icon. Provide visual feedback to the user to indicate what is being done. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示している間に、電子デバイスは、第1の自動調整アフォーダンスの選択に対応する第1の入力(例えば、3750m)(例えば、タップ)を受信する。 In some embodiments, the first auto-adjusting affordance (eg, 1036b) is displayed and, via the display device, the previously captured media item including the combination of the first content and the second content. While displaying the representation (eg, 3730d3), the electronic device receives a first input (eg, 3750m) (eg, tap) corresponding to selection of the first auto-adjusting affordance.

いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスはまた、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを停止する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されないことを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応じて、表現への調整を実行するための動作が実行されたことを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, in response to receiving a first input corresponding to selecting a first auto-adjusting affordance, the electronic device via the display device includes the first content and the second display a previously captured representation of the media item (eg, 3730c1) that does not contain the content of In some embodiments, in response to receiving a first input corresponding to selecting a first auto-adjusting affordance, the electronic device also includes the combination of the first content and the second content previously. Stop displaying a representation of the captured media item. In some embodiments, displaying a representation of a previously captured media item that includes the first content and does not include the second content is a combination of the first content and the second content. Replace with a representation of a previously captured media item containing. Provide feedback to the user on the current state of the behavior by updating the display of the auto-adjustment affordance to indicate that no auto-adjustment is applied, and perform adjustments to the presentation depending on previous activations of the affordance Provide visual feedback to the user indicating that an action has been taken to By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第2の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示している間に、電子デバイスは、第2の自動調整アフォーダンスの選択に対応する第2の入力(例えば、3750b)(例えば、タップ)を受信する。いくつかの実施形態では、第2の自動調整アフォーダンスの選択に対応する第2の入力を受信したことに応じて、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応じて、電子デバイスはまた、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示することを停止する。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されることを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応じて、表現への調整を反転するための動作が実行されたことを示す、視覚的フィードバックをユーザに、更なるコントロールをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, displaying a second auto-adjusting affordance (e.g., 1036b) and via a display device a previously captured image that includes the first content and does not include the second content. While displaying a representation of the media item (eg, 3730c1), the electronic device receives a second input (eg, 3750b) (eg, tap) corresponding to selection of the second auto-adjusting affordance. In some embodiments, in response to receiving a second input corresponding to selection of the second auto-adjusting affordance, the electronic device outputs the first content and the second content via the display device. Display a previously captured representation of the media item that contains the combination (eg, 3730c2). In some embodiments, in response to receiving a first input corresponding to selecting a first auto-adjusting affordance, the electronic device also includes the first content and does not include the second content. , stop displaying the previously captured representation of the media item. In some embodiments, displaying a representation of a previously captured media item that includes a combination of first content and second content includes the first content and does not include the second content. , replacing the display of the representation of the previously captured media item. Provides feedback to the user on the current state of the operation by updating the display of the auto-adjustment affordance to indicate that auto-adjustment is applied, and to make adjustments to the presentation in response to previous activation of the affordance. Provide the user with visual feedback and additional control to indicate that the action to flip has been performed. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、画像(例えば、静止写真、アニメーション化された画像(例えば、複数の画像))である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)は、縁部部分(例えば、水平線(例えば、画像内の補正された(例えば、歪み矯正された)水平線)(例えば、スカイライン))を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730d1)は、(例えば、図24A~図24Hに関連して上述したように、及び図25A~図25Bに関連して上述した方法2500で)縁部部分を更に含まない。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、実視水平線を歪み矯正するために第1のコンテンツの表現を回転させること、及び表現の回転から残された空の空間を満たすために第2のコンテンツの一部分の表現に導入することによって、視認可能な第1の水平線が作成されることを含む。いくつかの実施形態では、電子デバイスは、図24A~図24Hに関連して上述したものと同様の技術及びフロー記述の図25A~図25Bに関連して上述した方法2500を使用して、画像の垂直遠近歪及び/又は水平遠近歪を補正する。 In some embodiments, the previously captured media item is an image (eg, still photo, animated image (eg, multiple images)). In some embodiments, a representation of a previously captured media item (e.g., 3730d3) that includes a combination of first content and second content is removed from edge portions (e.g., horizontal lines (e.g., corrections within an image). dewarped (eg, dewarped) horizon) (eg, skyline)). In some embodiments, a representation of a previously captured media item (eg, 3730d1) that includes the first content and does not include the second content is (eg, associated with FIGS. 24A-24H) and in the method 2500 described above in connection with FIGS. 25A-25B). In some embodiments, a representation of a previously captured media item including a combination of the first content and the second content is obtained by rotating the representation of the first content to dewarp the visual horizon. and creating a visible first horizontal line by introducing it into the representation of the portion of the second content to fill the empty space left from the rotation of the representation. In some embodiments, the electronic device displays images using techniques similar to those described above with respect to FIGS. 24A-24H and the method 2500 described above with respect to FIGS. correct vertical and/or horizontal perspective distortion.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、ビデオ(例えば、複数の画像)である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730z1)は、第1の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されたビデオ)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現は、第1の量の移動とは異なる第2の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されていないビデオ)を含む。いくつかの実施形態では、電子デバイスは、ビデオ内の移動量を低減するために、第2のコンテンツを使用する(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現内に示される)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、より安定なバージョンである(例えば、ビデオが第1のコンテンツよりもキャプチャされたメディアが再生され、第2の量の移動を含む第2のコンテンツを含まないときのフレーム間の(例えば、滑らかな)動き(例えば、ぼかし、振動)を低減するために、(例えば、ビデオの視覚的に表示されるフレームの外側(例えば、第2のコンテンツ)にあるコンテンツ(例えば、第1のコンテンツに対応するコンテンツ)を使用して)修正された元のビデオ(例えば、より不安定であるビデオ)の1つ以上の修正されたフレームを含むバージョン。いくつかの実施形態では、動きを低減するために、電子デバイスは、複数のビデオフレームの第1のコンテンツをシフトし、かつ各ビデオフレームについて、第1のコンテンツのシフトから得られた1つ以上のギャップを埋める(例えば、それぞれのビデオフレームの表現を表示するために、第2のコンテンツのうちのいくつかを第1のコンテンツに追加する)ために第2のコンテンツを使用する。 In some embodiments, the previously captured media item is a video (eg, multiple images). In some embodiments, a representation of a previously captured media item that includes a combination of first content and second content (eg, 3730z1) is moved a first amount (eg, video next frame-to-frame motion) (eg, stabilized video). In some embodiments, a representation of a previously captured media item that includes the first content and does not include the second content is translated by a second amount of movement ( for example, motion between successive frames of video) (eg, unstabilized video). In some embodiments, the electronic device uses the second content (e.g., previously captured video containing a combination of the first content and the second content) to reduce the amount of movement in the video. shown within the representation of the media item). In some embodiments, the representation of the previously captured media item that includes the combination of the first content and the second content is a more stable version (e.g., the video is captured more than the first content). to reduce (e.g., smooth) motion (e.g., blurring, jittering) between frames when the media is played and does not include second content that includes a second amount of movement (e.g., video modified original video (e.g., using content (e.g., content corresponding to the first content) outside the visually displayed frame of (e.g., the second content)) A version that includes one or more modified frames of the video that is the video that is the video that is the video that is the video that is the video that is the video that is the video that is the video).In some embodiments, to reduce motion, the electronic device shifts the first content of a plurality of video frames and For video frames, fill one or more gaps resulting from shifting the first content (e.g., replace some of the second content with the first content to display a representation of each video frame). using the second content to add to).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、(例えば、第2のコンテンツは、含む)識別可能な(例えば、識別された、視覚的に観察可能な/観察された、検出可能な/検出された)オブジェクト(例えば、ボール、人の顔)を含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)は、識別可能なオブジェクトの一部分(例えば、第1のコンテンツによって表される識別可能な/識別されたオブジェクトの一部分)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)は、識別可能なオブジェクトの一部分を含まない。いくつかの実施形態では、電子デバイスは、識別可能なオブジェクトが第2のコンテンツを含まない第1のコンテンツの表現内にカットオフされない(例えば、視覚オブジェクトの全部分が含まれる)ように、第2のコンテンツを使用して、第2のコンテンツを含まない第1のコンテンツの表現をリフレーム(例えば、オブジェクト(例えば、サブジェクト)をフレーム内に持ち込む))する。 In some embodiments, the previously captured media item (e.g., the secondary content includes) is an identifiable (e.g., identified, visually observable/observed, detectable) object (eg, ball, human face). In some embodiments, a representation of a previously captured media item (eg, 3730c2) that includes a combination of first content and second content is a portion of an identifiable object (eg, part of the identifiable/identified object represented). In some embodiments, a previously captured representation of a media item that includes the first content and does not include the second content (eg, 3730c1) does not include portions of the identifiable object. In some embodiments, the electronic device configures the second content such that the identifiable object is not cut off within a representation of the first content that does not include the second content (eg, includes all portions of the visual object). 2 content is used to reframe (eg, bring the object (eg, subject) into the frame) a representation of the first content that does not contain the second content.

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが1つ以上のカメラの視野の第2の部分からの第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み補正)を含むと判定される(例えば、それぞれの信頼度確信閾値を上回る)ときに満たされる第2の基準を含む。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが1つ以上の視覚特性を含むとの判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、判定が満たされる。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、判定は満たされていない。 In some embodiments, the automatic media correction criteria include one or more media items by which previously captured media items can be corrected using second content from a second portion of the field of view of one or more cameras. Includes a second criterion that is met when it is determined (eg, above the respective confidence confidence threshold) to include a visual aspect (eg, video stabilization, horizon correction, skew/distortion correction). In some embodiments, the previously captured media item includes one or more visual characteristics based on the calculated confidence belief value determined using the content of the previously captured media item. and judgment. In some embodiments, the determination is met if the calculated confidence belief value is above (or equal to) the threshold. In some embodiments, the determination is not met if the calculated confidence belief value is below (or equal to) the threshold.

いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが表示される(例えば、閲覧される)前に(又は写真ロールユーザインタフェース若しくは写真ライブラリを閲覧する要求、若しくは最近キャプチャされたメディアを閲覧する要求などの、表示する要求が電子デバイスによって受信される前に)第2の基準が満たされていたときに満たされる第3の基準を含む。 In some embodiments, the automatic media correction criteria are before a previously captured media item is displayed (e.g., viewed) (or a request to view a photo roll user interface or photo library, or a recently captured media item). includes a third criterion that is met when the second criterion is met (before a request to display, such as a request to view the rendered media) is received by the electronic device.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンス(例えば、1036b)を表示する。いくつかの実施形態では、第1の動作は、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現に置き換えることを含む。所定の条件が満たされているときに、自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a previously captured representation of a media item and in accordance with determining that automatic media correction criteria are met, the electronic device performs a first A third auto-adjusting affordance (e.g., 1036b) that, when selected, causes the electronic device to perform the first action concurrently with the representation of the previously captured media item that includes the combination of the content and the second content. indicate. In some embodiments, the first action renders a representation of a previously captured media item that includes a combination of the first content and the second content, including the first content and including the second content. Does not include replacing representations of previously captured media items. Providing feedback to the user on the current state of the affordance by displaying the auto-adjusting affordance indicating that the auto-adjusting is applied when a predetermined condition is met, and the user activating the icon Visual feedback is provided to the user indicating that action will then be taken to reverse the adjustment applied to the representation. By providing improved visual feedback to the user when predetermined conditions are met, the operability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

いくつかの実施形態では、自動メディア補正基準は、自動適用設定(例えば、3702a1)が有効化されるときに満たされ、かつ自動適用設定が無効化されるときに満たされない基準を含む。いくつかの実施形態では、自動適用設定(例えば、3702a1)は、ユーザ構成可能設定である(例えば、電子デバイスは、ユーザ入力(例えば、設定ユーザインタフェースを介して提供された入力)に応じて、自動適用設定の状態を修正する)。 In some embodiments, the automatic media correction criteria include criteria that are met when the auto-apply setting (eg, 3702a1) is enabled and not met when the auto-apply setting is disabled. In some embodiments, the automatically applied settings (e.g., 3702a1) are user-configurable settings (e.g., the electronic device responds to user input (e.g., input provided via a settings user interface) to modify the state of the auto-apply settings).

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、かつ第1の1組の基準(例えば、選択可能アフォーダンスが提示されるべきかどうかを管理する1組の基準)が満たされているとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第2の動作を実行させる、第4の自動調整(例えば、補正)アフォーダンス(例えば、1036b)を表示する(例えば、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に置き換える)。いくつかの実施形態では、第2のコンテンツが自動補正動作で使用するのに好適ではない(例えば、第1のコンテンツとともに表現内に自動表示するのに好適ではないと電子デバイスが判定する場合、第1の1組の基準は、満たされていない。所定の条件が満たされているときに、自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が実行されることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a previously captured representation of a media item, and in accordance with a determination that automatic media correction criteria are not met, and the first set of Upon determining that criteria (e.g., a set of criteria governing whether a selectable affordance should be presented) are met, the electronic device includes the first content and includes the second content. display a fourth automatic adjustment (e.g., correction) affordance (e.g., 1036b) that, when selected, causes the electronic device to perform a second action, concurrently with the previously captured representation of the media item ( For example, a representation of a previously captured media item that includes the first content and no second content is a representation of a previously captured media item that includes a combination of the first content and the second content. ). In some embodiments, if the electronic device determines that the second content is not suitable for use in an auto-correction operation (e.g., is not suitable for automatic display in a representation with the first content, A first set of criteria are not met: feedback on the current state of the affordance by displaying the auto-tuning affordance indicating that the auto-tuning is not applied when predetermined conditions are met to the user, and provides visual feedback to the user indicating that when the user activates the icon, an action will be performed to reverse the adjustment applied to the representation when a predetermined condition is met. In addition, by providing improved visual feedback to the user, the usability of the device is enhanced and the user-device interface (e.g., the user providing appropriate input when operating/interacting with the device and reduce user error), as well as reduce device power usage and battery life by allowing users to use the device more quickly and efficiently. is improved.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、かつ第1の1組の基準が満たされていないとの判定に従って、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現と同時に、非選択可能インジケータ(例えば、3734)(例えば、選択されると、電子デバイスに、動作を実行させない(例えば、任意の動作を実行させせない)インジケータ;非選択可能補正インジケータは、ユーザ入力に応答しないユーザインタフェースのグラフィカル要素である)を表示する。いくつかの実施形態では、第1の動作及び第2の動作は、同一の動作である。いくつかの実施形態では、第1の動作及び第2の動作は、異なる動作である。いくつかの実施形態では、第1の補正インジケータ及び第2の補正インジケータは、同一の視覚外観を有する。いくつかの実施形態では、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスは、異なる視覚外観を有する(例えば、第1の自動調整アフォーダンスは、太字外観を有し、かつ第2の自動調整アフォーダンスは、太字外観を有さない)。いくつかの実施形態では、非選択可能インジケータを表示することは、第2の自動調整アフォーダンスを表示することをやめることを含む(例えば、第2の自動調整アフォーダンスの表示及び非選択可能インジケータの表示は、互いに排他的である)。いくつかの実施形態では、第2の自動調整アフォーダンスは、表示されるとき、第1の位置に表示され、かつ非選択可能インジケータは、表示されるとき、第1の位置に表示される。追加のコンテンツがキャプチャされたことを示す非選択可能インジケータを表示することにより、追加のコンテンツがキャプチャされたが、ユーザは、インジケータの位置に対応する入力に応じて、画像を自動的に調整するためにコンテンツを使用することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a previously captured representation of a media item, and in accordance with a determination that automatic media correction criteria are not met, and the first set of A non-selectable indicator (e.g., 3734) (e.g., , when selected, displays an indicator that does not cause the electronic device to perform an action (e.g., does not perform any action; a non-selectable correction indicator is a graphical element of the user interface that does not respond to user input). do. In some embodiments, the first action and the second action are the same action. In some embodiments, the first action and the second action are different actions. In some embodiments, the first correction indicator and the second correction indicator have the same visual appearance. In some embodiments, the first auto-adjusting affordance and the second auto-adjusting affordance have different visual appearances (eg, the first auto-adjusting affordance has a bold appearance and the second auto-adjusting affordance Affordances do not have a bold appearance). In some embodiments, displaying the non-selectable indicator includes ceasing to display the second auto-adjusting affordance (e.g., displaying the second auto-adjusting affordance and displaying the non-selectable indicator are mutually exclusive). In some embodiments, the second auto-adjusting affordance is displayed in the first position when displayed and the non-selectable indicator is displayed in the first position when displayed. Additional content was captured by displaying a non-selectable indicator to indicate that additional content was captured, but the user automatically adjusts the image depending on the input corresponding to the position of the indicator. provide visual feedback to the user that the content cannot be used because By providing improved visual feedback to the user when predetermined conditions are met, the operability of the device is enhanced and the user-device interface (e.g., when operating/interacting with the device making the device more efficient (by helping the user to make appropriate inputs and reducing user error), as well as by enabling the user to use the device more quickly and efficiently Reduced usage and improved battery life.

いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつコンテンツ処理基準が満たされているとの判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)(例えば、以前にキャプチャされたメディアアイテムが処理中であることを示すアニメーション化されたグラフィカルオブジェクト(例えば、回転アイコン又はアニメーション化されたプログレスバー))を表示する(3814)。いくつかの実施形態では、コンテンツ処理基準は、電子デバイスが以前にキャプチャされたメディアアイテム上の処理動作(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を自動的に生成したか若しくはしなかったかどうかを判定する動作、又は第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャしたメディアアイテムの表現を生成するために、どのように第1のコンテンツと第2のコンテンツとを組み合わせるのかを判定する動作を完了していないときに満たされる。いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応じて(3804)、かつコンテンツ処理基準が満たされていないとの判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータを表示することをやめる(3820)。いくつかの実施形態では、コンテンツ処理インジケータは、表示されるとき、第1の位置(例えば、第1の自動調整アフォーダンス、第2の自動調整アフォーダンス、及び非選択可能インジケータ、それらが表示されるときに表示される第1の位置)に表示される。所定の条件が満たされているときにのみ、進度インジケータを表示することにより、ユーザは、現在表示されている表現に対応するメディアアイテムが依然として処理中である追加のコンテンツを有するかどうかを迅速に認識することができ、表示される現在の表現が変化することができるという通知をユーザに提供する。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, upon receiving a request to display a previously captured representation of a media item (3804) and upon determining that content processing criteria are met (3808), the electronic device displays a content processing indicator (e.g., 3732) (e.g., an animated graphical object (e.g., a spinning icon or animated progress bar) indicating that a previously captured media item is being processed) (3814). In some embodiments, the content processing criteria are based on the electronic device processing operations on a previously captured media item (e.g., a previously captured media item including a combination of first content and second content). An act of determining whether a representation was or was not automatically generated, or how to generate a representation of a previously captured media item that includes a combination of the first content and the second content. Satisfied when the operation of determining whether to combine one piece of content with a second piece of content has not been completed, and in some embodiments has received a request to display a previously captured representation of a media item. 3804, and upon determining that the content processing criteria are not met 3808, the electronic device ceases to display the content processing indicator 3820. In some embodiments, the content processing Indicators are in a first position when displayed (e.g., a first auto-adjusting affordance, a second auto-adjusting affordance, and a non-selectable indicator, the first position displayed when they are displayed) By displaying the progress indicator only when predetermined conditions are met, the user has additional content where the media item corresponding to the currently displayed representation is still being processed. and provides a notification to the user that the current representation displayed can change if a set of conditions are met without requiring further user input Performing optimized actions improves device usability (e.g. assists the user in providing appropriate input when operating/interacting with the device, corrects user error) reduce power usage and improve device battery life by making the user-device interface more efficient, as well as allowing users to use the device more quickly and efficiently .

いくつかの実施形態では、コンテンツ処理インジケータを表示している間に、かつコンテンツ処理基準がもはや満たされていない(例えば、コンテンツ処理が完了したため)との判定に従って、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)を表示することを停止する。いくつかの実施形態では、コンテンツ処理インジケータは、第1の自動調整アフォーダンス(例えば、自動メディア補正基準が満たされている場合)、第2の自動調整アフォーダンス(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされている場合)、又は非選択可能インジケータ(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされていない場合)に置き換えられる。 In some embodiments, while displaying the content processing indicator and following a determination that the content processing criteria are no longer met (e.g., because content processing is complete), the electronic device displays the content processing indicator ( For example, stop displaying 3732). In some embodiments, the content processing indicator is a first auto-adjust affordance (e.g., if auto-media correction criteria are met), a second auto-adjust affordance (e.g., if auto-correction criteria are not met). and the first set of criteria are met), or a non-selectable indicator (e.g., if the auto-correction criteria are not met and the first set of criteria are not met) ).

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、かつコンテンツ処理インジケータを表示している間に、かつコンテンツ処理基準がもはや満たされていないとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c3)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を必要とすることなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator. , and in accordance with the determination that the content processing criteria are no longer met, the electronic device renders a representation of the previously captured media item that includes the first content and does not include the second content (e.g., 3730c1 ) with a representation of the previously captured media item (eg, 3730c3) that includes the combination of the first content and the second content. By updating the displayed representation only when predetermined conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、かつコンテンツ処理インジケータを表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Kの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)を表示する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの第2の表現を表示している間に、かつコンテンツ処理基準がもはや満たされていないとの判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Mの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を必要とすることなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that includes the first content and does not include the second content and while displaying the content processing indicator. 37K) (e.g., reduced size representation reduced size representations within a set of reduced size representations of a set of previously captured media items containing the previously captured media items; thumbnails displaying the media items). In some embodiments, while displaying a second representation of a previously captured media item that includes the first content and does not include the second content, and the content processing criteria are no longer met, In accordance with the determination that the electronic device has not, the electronic device renders a second representation of the previously captured media item that includes the first content and does not include the second content as the first content and the second content. a second representation (e.g., 3724 in FIG. 37M) of the previously captured media item (e.g., a reduced size representation) that includes a combination of the previously captured media items; Reduced-size representations within a set of reduced-size representations of media items; thumbnails displaying media items). By updating the displayed representation only when predetermined conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現に遷移する、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K~図37Mの3730d1~3730d3の反転)を表示する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツと第2のコンテンツとを組み合わせた表現から第1のコンテンツの表現へと遷移するクロスフェードアニメーションを表示する)。いくつかの実施形態では、図37K~図37Mにおけるアニメーションを反転させることができる。 In some embodiments, while displaying a representation of a previously captured media item that includes a combination of first content and second content, the electronic device includes the first content and animation of a representation of a previously captured media item that includes a combination of the first content and the second content transitioning to a representation of the previously captured media item that does not include the content of 2 (e.g., FIGS. 37K- (e.g., zoom in or out, translate, and/or transition from a combined representation of the first content and the second content to a representation of the first content). view the crossfade animation). In some embodiments, the animation in FIGS. 37K-37M can be reversed.

いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に遷移する、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K~図37Mの3730d1~3730d3)を表示する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツの表現から第1のコンテンツ及び第2のコンテンツの組み合わせの表現へと遷移するクロスフェードアニメーションを表示する)。 In some embodiments, while displaying a representation of a previously captured media item that includes the first content and does not include the second content, the electronic device captures the first content and the second content. Animation of a representation of a previously captured media item that includes the first content and does not include the second content transitioning to a representation of the previously captured media item that includes a combination of the two content (e.g., 3730d1-3730d3 in FIGS. 37K-37M) (eg, zoom in or out, translate, and/or transition from a representation of the first content to a representation of the combined first and second content) view the crossfade animation).

いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第3のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含み、かつ1つ以上のカメラの視野の第2の部分(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第4のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ;第2の部分からの任意のコンテンツを含まない)は含まない、メディアアイテム(例えば、静止画像、ビデオ)の表現(例えば、3730a)を表示する要求(例えば、3750v)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の第1の部分からの第3のコンテンツを含み、かつ1つ以上のカメラの視野の第2の部分からの第4のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730a)を表示する要求を受信したことに応じて、電子デバイスは、1つ以上のカメラの視野の第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーション(例えば、1036b及び/又は3724)を表示することをやめる。いくつかの実施形態では、電子デバイスは、第1の自動調整アフォーダンス(例えば、1036b)を表示することをやめる。追加のコンテンツがメディアの表現を調整するのに利用可能でないというインジケーションを表示することをやめることにより、追加のコンテンツがキャプチャされなかったため、ユーザが追加のコンテンツでメディアの表現を調整することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is a first portion of the field of view of one or more cameras (eg, a major or central portion of the field of view of one or more cameras, a majority of which contains media items). included in the representation of the field of view of one or more cameras when displaying the , and one or more a second portion of the field of view of one or more cameras (e.g., outside the main or central portion of the field of view of the one or more cameras, and optionally the main or central portion of the field of view of the one or more cameras) a fourth content (e.g., image data (e.g., image data stored on a computer system) from a portion of the field of view of one or more cameras captured by a different one of the one or more cameras; request (e.g., 3750v) to display a representation (e.g., 3730a) of a media item (e.g., still image, video) (e.g., selection of thumbnail image, image capture affordance (e.g., a selectable user interface object) (e.g., a selection of a shutter affordance that, when activated, captures an image of the content displayed in the first region). A previously captured media item that includes third content from a first portion of the field of view of one or more cameras and does not include fourth content from a second portion of the field of view of one or more cameras In response to receiving a request to display a representation (e.g., 3730a) of the electronic device, an indication that additional media content is available outside the first portion of the field of view of the one or more cameras. (e.g., 1036b and/or 3724).In some embodiments, the electronic device ceases to display the first auto-adjusting affordance (e.g., 1036b). visual feedback that the user is unable to adjust the presentation of the media with the additional content because the additional content was not captured by ceasing to display an indication that it is not available to adjust the presentation of to the user, providing improved visual feedback to the user when certain conditions are met By providing a user-device interface (e.g., helping the user to make appropriate inputs when operating/interacting with the device, reducing user error) by making it more efficient, and in addition, by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life.

方法3800に関して上述された処理(例えば、図38A~図38C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、4000、及び4200は、方法3800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200、任意選択的に、方法3800に関連して上述したように、メディア補正技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing described above with respect to method 3800 (eg, FIGS. 38A-38C) are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 4000, and 4200 are described above with reference to method 3800. Optionally includes one or more of the characteristics of various methods. For example, method 3200 optionally employs media correction techniques as described above with respect to method 3800 . For the sake of brevity, these details are not repeated below.

図39A~図39Qは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図40A~図40Bにおける処理を含む、以下で説明する処理を例示するために使用される。 39A-39Q illustrate exemplary user interfaces for providing guidance while capturing media, according to some embodiments. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 40A-40B.

図39A~図39Qでは、デバイス600は、低光環境で動作しており、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して上述したのと同様の技術を使用して、低光環境内でメディアをキャプチャするように構成されている。図39A~図39Q及び図40A~図40Bに関連して以下に記載される1つ以上の技術は、いくつかの実施例では、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに記載されるように、1つ以上の技術と組み合わせる、置き換える、かつ/又はそれらを修正することができる。例えば、図39A~図39Q及び図40A~図40Bを以下で説明する1つの理由は、低光環境内でメディアをキャプチャしている間に、視覚ガイダンスを提供する別の実施例を提供することであり、これは、低光環境内でメディアをキャプチャすることに関して図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bで上記教示された他の技術に追加することができる。いくつかの実施形態では、図39A~図39Qに関連して以下に記載される技術は、デバイス600が低光環境で動作しておらず、かつ低光環境内でメディアをキャプチャするように構成されていない(かつ/又は低光モードで動作していない)が、閾値時間量よりも長いそれぞれの時間量にわたってキャプチャされた画像データが単一の静止画像に組み合わされ、したがって、それぞれの時間量にわたってキャプチャされた画像データから高品質画像を生成するために経時的なFOVの安定性が必要とされるモード(例えば、時間経過モード、アニメーション化された画像キャプチャモード)で動作している場合に行われる。 In Figures 39A-39Q, the device 600 is operating in a low light environment and the It is configured to capture media in low light environments using techniques similar to those described above in connection with FIGS. 27A-27C and 28A-28B. One or more of the techniques described below in connection with FIGS. 39A-39Q and 40A-40B may, in some embodiments, 20C, FIGS. 21A-2C, FIGS. 26-26Q, FIGS. 27A-27C, and FIGS. 28A-28B, combine, replace, and/or modify one or more techniques be able to. For example, one reason for describing FIGS. 39A-39Q and FIGS. 40A-40B below is to provide another example of providing visual guidance while capturing media in low light environments. 18A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, 27A-27A-18K, 19A-19B, 20A-20C, 21A-2C, 26-26Q, and 27A-27C for capturing media in low light environments. It can be added to the other techniques taught above in FIGS. 27C and 28A-28B. In some embodiments, the techniques described below with respect to FIGS. 39A-39Q are configured such that device 600 is not operating in a low light environment and captures media in the low light environment. (and/or not operating in low light mode) but captured for respective amounts of time longer than the threshold amount of time are combined into a single still image, thus when operating in modes where FOV stability over time is required to generate high-quality images from image data captured over time (e.g., time lapse mode, animated image capture mode) done.

理解を向上させるために、図39A~図39Qは、(図26K~図26Qに関連して上述したグラフ的な説明図2668と同様に)デバイス600の現在のポーズ2668cがデバイス600の元のポーズ2668bに対してどのように変化するかに関する詳細を提供するグラフ的な説明図2668を含む。図39Aでは、デバイス600の現在のポーズがデバイス600の元のポーズと一致するため、元のポーズ266bのみがグラフ的な説明図2668の一部として示されている。 To improve understanding, FIGS. 39A-39Q show (similar to the graphical illustration 2668 described above in connection with FIGS. 26K-26Q) that the current pose 2668c of device 600 is 2668b includes a graphical illustration 2668 that provides details on how it varies. In FIG. 39A, only the original pose 266b is shown as part of the graphical illustration 2668 because the current pose of the device 600 matches the original pose of the device 600. FIG.

図39Aは、デバイス600のディスプレイの上部から底部まで延びるライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。図39Aでは、デバイス600は、視覚的に暗い環境に立っているFOV内の人によって示されるように、低光環境で動作している。 FIG. 39A shows electronic device 600 displaying a camera user interface that includes a live preview 630 that extends from the top to the bottom of device 600's display. Live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (eg, and/or cameras). In FIG. 39A, device 600 is operating in a low light environment as indicated by a person within the FOV standing in a visually dark environment.

いくつかの実施形態では、ライブプレビュー630は、デバイス600のディスプレイの上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 In some embodiments, live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of device 600's display. In some embodiments, device 600 captures images using multiple camera sensors and combines them to display live preview 630 (eg, different portions of live preview 630). In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 .

図39Aに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含む。インジケータ領域602及びコントロール領域606は、インジケータ及びコントロールがライブプレビュー630と同時に表示されることができるように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置し、インジケータ又はコントロールと実質的に重ね合わされない。 As shown in FIG. 39A, the camera user interface includes indicator area 602 and control area 606 . Indicator region 602 and control region 606 are overlaid on live preview 630 such that the indicators and controls can be displayed simultaneously with live preview 630 . Camera display area 604 is located between indicator area 602 and control area 606 and does not substantially overlap the indicators or controls.

図39Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。図39Aでは、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示していることを示す。 As shown in FIG. 39A, camera display area 604 includes live preview 630 and zoom affordance 2622 . Zoom affordances 2622 include 0.5x zoom affordances 2622a, 1x zoom affordances 2622b, and 2x zoom affordances 2622c. In FIG. 39A, 1× zoom affordance 2622b is selected, indicating that device 600 is displaying live preview 630 at the 1× zoom level.

図39Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。図39Aでは、フラッシュ状態インジケーション602aは、フラッシュモードが非アクティブであることを示す。フラッシュモードは、デバイス600がメディアをキャプチャしているときのデバイス600のフラッシュ動作を制御する As shown in FIG. 39A, indicator area 602 is superimposed over live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator area 602 includes flash status indicator 602a. In FIG. 39A, flash status indication 602a indicates that flash mode is inactive. Flash mode controls flash behavior of device 600 when device 600 is capturing media.

加えて、インジケータ領域602は、フラッシュ状態インジケータ602aに隣接して位置する低光モード状態インジケータ602cを含む。図39Aでは、低光モード状態インジケータ602cは、図26H~図26Iに関連して上述したものと同様の技術を使用して表示される。図39Aに示すように、低光モード状態インジケータ602cは、低光モードの状態がアクティブであり、かつ5秒のキャプチャ持続時間(例えば、低光モード状態インジケータ602c内に表示された「5秒」)を使用してメディアをキャプチャするようにデバイス600が構成されていることを示す。ここで、(例えば、図26H~図26Iに関連して)上述したように、デバイス600が極副標準低光環境(例えば、現在の光レベル2680dによって示される0.5ルクス)で動作しているため、現在のキャプチャ持続時間は、5秒である。 Additionally, indicator region 602 includes a low light mode status indicator 602c located adjacent to flash status indicator 602a. In FIG. 39A, low light mode status indicator 602c is displayed using techniques similar to those described above in connection with FIGS. 26H-26I. As shown in FIG. 39A, low light mode status indicator 602c indicates that the low light mode status is active and a five second capture duration (eg, "5 seconds" displayed within low light mode status indicator 602c). ) to capture media. Here, as described above (eg, in connection with FIGS. 26H-26I), device 600 operates in a very substandard low light environment (eg, 0.5 lux as indicated by current light level 2680d). Therefore, the current capture duration is 5 seconds.

図39Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、メディアコレクション624、シャッターアフォーダンス610、カメラスイッチャアフォーダンス612、及び調整可能な低光モードコントロール1804などの複数のコントロールを含む。調整可能な低光モードコントロール1804は、(例えば、図26H~図26Iに関連して)上述したものと同様の技術を使用して、インジケーション1818を介して5秒のキャプチャ持続時間に設定される。ここで、5秒のキャプチャ持続時間は、デフォルト状態(例えば、2604b)に対応し、また、図26H~図26Iに関連して同様に説明したように、低光モード状態インジケータ602c内に表示された現在のキャプチャ持続時間と一致する。図39Aでは、デバイス600は、シャッターアフォーダンス610に対応する位置でのタップジェスチャ3950aを検出する。 As shown in FIG. 39A, control area 606 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Controls area 606 includes multiple controls such as media collection 624 , shutter affordance 610 , camera switcher affordance 612 , and adjustable low light mode control 1804 . Adjustable low light mode control 1804 is set to a 5 second capture duration via indication 1818 using techniques similar to those described above (eg, in connection with FIGS. 26H-26I). be. Here, a capture duration of 5 seconds corresponds to the default state (eg, 2604b) and is displayed within the low light mode state indicator 602c as similarly described with respect to FIGS. 26H-26I. match the current capture duration. 39A, device 600 detects tap gesture 3950a at a location corresponding to shutter affordance 610. In FIG.

図39Bに示すように、タップジェスチャ3950aを検出したことに応じて、デバイス600は、シャッターアフォーダンス610を暗くし、メディアのキャプチャを開始する。図39Bでは、デバイス600がメディアのキャプチャを開始すると、デバイス600は、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して説明した技術と同様の技術を使用して、5秒のキャプチャ持続時間にわたる複数の写真のキャプチャを開始する。更に、タップジェスチャ3950aを検出したことに応じて、デバイス600はまた、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動(例えば、5秒から0秒までのカウントダウン)を開始し、コントロール領域606内の他のコントロール(例えば、メディアコレクション624及びカメラスイッチャアフォーダンス612)を表示することを停止する。 As shown in FIG. 39B, in response to detecting tap gesture 3950a, device 600 dims shutter affordance 610 and begins capturing media. In FIG. 39B, when the device 600 begins capturing media, the device 600 starts capturing media in FIGS. Using techniques similar to those described in connection with FIGS. 27C and 28A-28B, begin capturing multiple photographs for a capture duration of 5 seconds. Further, in response to detecting tap gesture 3950a, device 600 also initiates movement of indication 1818 toward a capture duration of zero (eg, countdown from 5 seconds to 0 seconds) and other controls (eg, media collection 624 and camera switcher affordance 612).

いくつかの実施形態では、シャッターアフォーダンス610を暗くする代わりに、デバイス600は、シャッターアフォーダンス610を停止アフォーダンス1806に置き換える。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、タップジェスチャ3950aを検出したことに応じて、色を変更する(例えば、白色から黄色に)。 In some embodiments, instead of dimming shutter affordance 610 , device 600 replaces shutter affordance 610 with stop affordance 1806 . In some embodiments, adjustable low light mode control 1804 also changes color (eg, from white to yellow) in response to detecting tap gesture 3950a.

図39Cに示すように、デバイス600は、5秒のキャプチャ持続時間から4.5秒のキャプチャ持続時間にインジケーション1818を動かした。したがって、図39Cに示すデバイス600と図39Bに示すデバイス600との間で、約0.5秒が経過している。4.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、図39Cでは、現在のポーズ2668cは、元のポーズ2668bの左下にある。上述のように、現在のポーズ2668cは、デバイス600の現在のポーズ(例えば、図39Cのデバイス600の現在のポーズ)に対応し、元のポーズ2668bは、タップジェスチャ3950aを検出したことに応じてメディアのキャプチャが開始されたときのデバイス600のポーズに対応する。したがって、図39Cに示すように、デバイス600は、タップジェスチャ3950aを検出したことに応じてメディアのキャプチャが開始されたときのその元のポーズ(元のポーズ)から左下に平行移動されている。換言すれば、ユーザは、デバイス600を動かした。 As shown in FIG. 39C, device 600 has moved indication 1818 from a capture duration of 5 seconds to a capture duration of 4.5 seconds. Thus, approximately 0.5 seconds have elapsed between the device 600 shown in Figure 39C and the device 600 shown in Figure 39B. At some point while displaying indication 1818 with a capture duration of 4.5 seconds, device 600 detects a change in its pose. As shown in graphical illustration 2668, in FIG. 39C the current pose 2668c is to the left and below the original pose 2668b. As described above, current pose 2668c corresponds to the current pose of device 600 (eg, the current pose of device 600 in FIG. 39C), and original pose 2668b corresponds to detecting tap gesture 3950a. Corresponds to the pose of device 600 when media capture is started. Thus, as shown in FIG. 39C, device 600 has been translated to the left and down from its original pose when media capture began in response to detecting tap gesture 3950a. In other words, the user has moved device 600 .

図39Cに示すように、デバイス600の現在のポーズが元のポーズの左下に平行移動されているため、ライブプレビュー630は、デバイス600の現在のFOVを表示するように更新されている。図39Cに示すように、ライブプレビュー630は、図39Bのライブプレビュー630を介して人が表示されていた位置の右上に表示された人を示すように更新されている。図39Cでは、デバイス600が下向き/左向きに平行移動されたとき、そのFOVは、下向き/左向きに平行移動されている。デバイス600のFOVが下向き/左向きに平行移動されると、FOV内のシーン(例えば、立っている人)は、反対方向(例えば、上向き/右向き)に平行移動されるように見える。更には、以前に表示されたFOVの一部分(例えば、図39Bのライブプレビュー630の最上端/最右端部分)は、1つ以上のカメラのFOV内に留まらないため、ライブプレビュー630に表示されることを停止する。デバイス600は、そのポーズの変化を検出したことに応じて、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差の量未満であるため、視覚ガイダンスを表示しない。換言すれば、デバイスが動いたが、デバイスは、視覚ガイダンスを表示することが行われる閾値量よりも大きく動いていない。 Live preview 630 has been updated to display the current FOV of device 600 because the current pose of device 600 has been translated to the bottom left of the original pose, as shown in FIG. 39C. As shown in Figure 39C, the live preview 630 has been updated to show the person displayed above and to the right of the location where the person was displayed via the live preview 630 of Figure 39B. In FIG. 39C, when device 600 is translated downward/left, its FOV is translated downward/left. When the FOV of device 600 is translated downward/left, the scene (eg, standing person) within the FOV appears to be translated in the opposite direction (eg, upward/right). Additionally, a portion of the previously displayed FOV (e.g., the top/rightmost portion of live preview 630 in FIG. 39B) is displayed in live preview 630 because it does not remain within the FOV of one or more cameras. stop doing that. In response to detecting a change in its pose, the device 600 displays visual guidance because the translational difference between the current pose of the device 600 and the original pose of the device 600 is less than the threshold difference amount. do not. In other words, the device has moved, but the device has not moved more than a threshold amount at which displaying visual guidance occurs.

図39Dに示すように、デバイス600は、4.5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668によって示されるように、現在のポーズ2668cは、図39Cのものよりも多く元のポーズ2668bの左下に更にシフトされる。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Cのライブプレビュー630を介して人が表示されていた位置の更に右上に表示された人を示すように更新されている。 As shown in FIG. 39D, device 600 has moved indication 1818 from a capture duration of 4.5 seconds to a capture duration of 4 seconds. As shown by graphical illustration 2668, current pose 2668c is further shifted to the lower left of original pose 2668b than that of FIG. 39C. Additionally, because the current pose of the device 600 has changed, the live preview 630 will display the position where the person would have been displayed via the live preview 630 of FIG. 39C (for similar reasons as described above with respect to FIG. has been updated to show the person displayed in the upper right corner of the .

4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Dに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差の量を上回るため、視覚ガイダンスを表示する。例えば、閾値差は、値(例えば、閾値(例えば、1、10、100センチメートル)又はパーセンテージ差(例えば、15%、20%、30%))を含むことができる。ここで、視覚ガイダンスは、元のポーズインジケーション3970b(例えば、白色十字線)及び現在のポーズインジケーション3970c(例えば、黒色十字線)を含む。いくつかの実施形態では、元のポーズインジケーション3970b及び現在のポーズインジケーション3970c(例えば、視覚ガイダンスの一部分)を表示することによって、デバイス600は、デバイス600の現在のポーズ(例えば、現在のポーズ2668cを介して示される)とデバイス600の元のポーズ(元のポーズ2668bを介して示される)との間の差のインジケーションを含む視覚ガイダンス(例えば、視覚インジケーション)を表示する。 At some point while displaying indication 1818 with a capture duration of 4 seconds, device 600 detects a change in its pose. As shown in FIG. 39D, in response to detecting a change in its pose, device 600 determines that the translational difference between the current pose of device 600 and the original pose of device 600 exceeds a threshold difference amount. display visual guidance. For example, threshold differences can include values (eg, thresholds (eg, 1, 10, 100 centimeters) or percentage differences (eg, 15%, 20%, 30%)). Here, visual guidance includes original pose indication 3970b (eg, white crosshairs) and current pose indication 3970c (eg, black crosshairs). In some embodiments, by displaying the original pose indication 3970b and the current pose indication 3970c (eg, a portion of the visual guidance), the device 600 communicates with the current pose of the device 600 (eg, the current pose). 2668c) and the original pose of device 600 (shown through original pose 2668b).

図39Dに示すように、デバイス600の現在のポーズとデバイス600の元のポーズとの間の平行移動差が閾値差を上回るため、デバイス600は、視覚ガイダンスを表示した。図39Dに示すように、元のポーズインジケーション3970bは、白色十字線であり、現在のポーズインジケーション3970cは、黒色十字線である。しかしながら、いくつかの実施形態では、元のポーズインジケーション3970b及び現在のポーズインジケーション3970cは、異なる色及び/又は形状によって表すことができる。いくつかの実施形態では、これらの異なる色又は形状は、例えば、FOV内のシーンに基づいて、動的に変化する。 Device 600 displayed visual guidance because the translation difference between the current pose of device 600 and the original pose of device 600 exceeded the threshold difference, as shown in FIG. 39D. As shown in FIG. 39D, the original pose indication 3970b is a white crosshair and the current pose indication 3970c is a black crosshair. However, in some embodiments, original pose indication 3970b and current pose indication 3970c may be represented by different colors and/or shapes. In some embodiments, these different colors or shapes change dynamically, for example, based on the scene within the FOV.

いくつかの実施形態では、平行移動差が閾値差を上回らなかった場合でも、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差の視覚ガイダンスを表示することができる。例えば、図39G及び図39Fに関して説明するように、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間のデバイス600の回転差又は傾斜の差が1つ以上の閾値差を上回るかどうかに基づいて、視覚ガイダンスを表示することができる。したがって、いくつかの実施形態では、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の複数の差のうちの少なくとも1つの差が1つ以上の閾値差を上回る場合、視覚ガイダンスを表示することができる。いくつかの実施形態では、デバイス600は、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差(例えば、平行移動、回転、傾斜)の組み合わせ(例えば、アルゴリズムによって判定される)が閾値差を上回るとき、視覚ガイダンスを表示することができる。 In some embodiments, device 600 may display visual guidance of the difference between the current pose of device 600 and the original pose of device 600 even if the translation difference did not exceed the threshold difference. can. For example, as described with respect to FIGS. 39G and 39F, the device 600 determines that the difference in rotation or tilt of the device 600 between the current pose of the device 600 and the original pose of the device 600 is one or more threshold differences. Visual guidance can be displayed based on whether the Accordingly, in some embodiments, the device 600 determines if at least one of the plurality of differences between the current pose of the device 600 and the original pose of the device 600 exceeds one or more threshold differences. , can display visual guidance. In some embodiments, device 600 combines (eg, algorithmically) one or more differences (eg, translation, rotation, tilt) between the current pose of device 600 and the original pose of device 600 . (determined) exceeds a threshold difference, visual guidance can be displayed.

他方では、いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差(単数又は複数)が閾値差を上回らない場合、デバイス600は、視覚ガイダンスを表示しない(又は視覚ガイダンスを表示することを停止する)。例えば、図39Cに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、図39Cのデバイス600の現在のポーズとデバイス600の元のポーズとの間の差(単数又は複数)(例えば、図39Cの平行移動差)が閾値差を上回らなかったため、視覚ガイダンスを表示しなかった。しかしながら、いくつかの実施形態では、図39Cのデバイス600の現在のポーズと元のポーズとの間の1つ以上の差が図26Kに関連して上述したものなどの閾値差を上回るかどうかにかかわらず、デバイス600は、低光環境でメディアをキャプチャするときに視覚ガイダンスを表示する。 On the other hand, in some embodiments, if the difference(s) between the current pose of device 600 and the original pose of device 600 does not exceed a threshold difference, device 600 does not display visual guidance. (or stop displaying visual guidance). For example, as shown in Figure 39C, in response to detecting a change in its pose, the device 600 may determine the difference(s) between the current pose of the device 600 in Figure 39C and the original pose of the device 600. ) (eg, the translation difference in FIG. 39C) did not exceed the threshold difference, so no visual guidance was displayed. However, in some embodiments, if one or more differences between the current and original poses of device 600 in FIG. Regardless, device 600 displays visual guidance when capturing media in low-light environments.

いくつかの実施形態では、メディアのキャプチャ全体の間に閾値差を上回るデバイス600の現在のポーズとデバイス600の元のポーズとの間の差が検出されなかった場合、デバイス600は、メディアのキャプチャ全体の間に視覚ガイダンスを表示しない。 In some embodiments, if no difference between the current pose of device 600 and the original pose of device 600 that exceeds a threshold difference is detected during the entire media capture, device 600 performs media capture. Do not display visual guidance throughout.

いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差が第1の閾値差よりも大きい第2の閾値差(例えば、元のポーズ位置からの2、3、又は5度の移動)を上回る(デバイス600が過度に動いた)とき、デバイス600は、図18Sに関連して上述したような1つ以上の同様の技術を使用して、任意のキャプチャ持続時間が残っているかどうかにかかわらず、メディアをキャプチャすることを停止し(例えば、デバイス600は、図39Dでメディアをキャプチャすることを停止することができる)、任意選択的に、視覚ガイダンスを表示することを停止する。いくつかの実施形態では、デバイス600がメディアをキャプチャすることを停止すると、デバイス600は、デバイス600がキャプチャ持続時間全体にわたってメディアをキャプチャすることを停止する前にキャプチャされたメディアの一部分を表すメディア(未完了メディア)を保存する(例えば、今後の表示又は使用のために保存する)。いくつかの実施形態では、図18R~図18Sに関連して上述したように、未完了メディアは、キャプチャ持続時間全体にわたってキャプチャされたであろうメディア、又はキャプチャが停止しなかった場合にキャプチャされたであろうメディアよりも、視覚的に暗い。いくつかの実施形態では、デバイス600がメディアをキャプチャすることを停止すると、図18Sに関連して上述したように、デバイス600は、未完了メディアを破棄する。 In some embodiments, a second threshold difference between the current pose of device 600 and the original pose of device 600 is greater than the first threshold difference (e.g., 2 from the original pose position, 3 or 5 degrees of movement), the device 600 may use one or more similar techniques as described above in connection with FIG. Stop capturing media regardless of whether there is a duration remaining (eg, device 600 may stop capturing media in FIG. 39D), and optionally provide visual guidance. stop showing. In some embodiments, when the device 600 stops capturing media, the device 600 retrieves media representing the portion of the media captured before the device 600 stopped capturing media for the entire capture duration. Save the (incomplete media) (eg, save for future viewing or use). In some embodiments, as described above with respect to FIGS. 18R-18S, unfinished media is media that would have been captured for the entire capture duration, or would have been captured if capture had not stopped. Visually darker than the media it would have been. In some embodiments, when device 600 stops capturing media, device 600 discards unfinished media, as described above in connection with FIG. 18S.

図39Eに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668によって示されるように、現在のポーズ2668cは、図39Dのものよりも元のポーズ2668bの左下に更にシフトされる。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Dのライブプレビュー630を介して人が表示されていた位置の更に右上に表示された人を示すように更新されている。 As shown in FIG. 39E, device 600 has moved indication 1818 from a capture duration of 4 seconds to a capture duration of 3.5 seconds. As shown by graphical illustration 2668, current pose 2668c is shifted further to the left and to the bottom of original pose 2668b than that of FIG. 39D. Additionally, because the current pose of the device 600 has changed, the live preview 630 will display the position where the person would have been displayed via the live preview 630 of FIG. 39D (for similar reasons as described above with respect to FIG. has been updated to show the person displayed in the upper right corner of the .

3.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Eに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケータ3970bを現在のポーズインジケータ3970cから離れるように更に平行移動させて、元のポーズ2668bの左下に更にシフトされている現在のポーズ2668cを介しても示されるように、平行移動の大きさ、又はデバイス600の現在のポーズとデバイス600の元のポーズとの間のポーズの差を表す。ここで、差が閾値差を上回るため、視覚ガイダンスは、表示されたままであり続ける。しかしながら、差が、デバイス600にメディアをキャプチャすることを停止させることになる第2の閾値差を上回らないため、デバイス600は、図39Eで依然としてメディアをキャプチャしている。 At some point while displaying indication 1818 with a capture duration of 3.5 seconds, device 600 detects a change in its pose. As shown in FIG. 39E, in response to detecting that pose change, device 600 further translates original pose indicator 3970b away from current pose indicator 3970c to the lower left of original pose 2668b. represents the magnitude of the translation, or the difference in pose between the current pose of device 600 and the original pose of device 600, as also shown via current pose 2668c, which is further shifted to . Here, the visual guidance remains displayed because the difference exceeds the threshold difference. However, device 600 is still capturing media in FIG. 39E because the difference does not exceed a second threshold difference that would cause device 600 to stop capturing media.

図39Eに示すように、視覚ガイダンスの1つのインジケーションは、静的であり、他方のインジケーションは、静的ではない。図39Eでは、デバイス600は、元のポーズインジケーション3970bを動かす。元のポーズインジケーション3970bは、図39Dの以前に表示されていたデバイス600上の位置から図39Eに表示されている位置まで動いた。対照的に、デバイス600は、現在のポーズインジケーション3970cを動かさない。現在のポーズインジケーション3970cは、図39D~図39Eでディスプレイ上の同じ位置にある。 As shown in FIG. 39E, one indication of visual guidance is static and the other indication is not. In FIG. 39E, device 600 moves original pose indication 3970b. The original pose indication 3970b has moved from its previously displayed position on device 600 in FIG. 39D to the position displayed in FIG. 39E. In contrast, device 600 does not move current pose indication 3970c. The current pause indication 3970c is at the same position on the display in Figures 39D-39E.

より良好な理解のために、視覚ガイダンスのインジケーション(単数又は複数)の移動は、FOV内に立っている人に対して基準として見なすことができる。図39D~図39Eを見ると、デバイス600は、現在のポーズインジケーション3970cが任意の基準点に対して静的に維持されていない間に、元のポーズインジケーション3970bを1つ以上のカメラのFOV内の基準点(例えば、ライブプレビュー630に示される人のスウェットシャツのジッパー)に対して静的に維持する。したがって、1つ以上のカメラのFOV内の基準点に関して、現在のポーズインジケーション3970cが静的でない間に、元のポーズインジケーション3970bは、静的である。しかしながら、図39D~図39Kの現在のポーズインジケーション3970cの表示位置は、デバイス600のポーズの変化に基づき、FOV内のオブジェクトの移動に基づかない。 For better understanding, the movement of the visual guidance indication(s) can be taken as a reference to a person standing within the FOV. 39D-39E, the device 600 repeats the original pose indication 3970b for one or more cameras while the current pose indication 3970c is not statically maintained with respect to any reference point. It remains static relative to a reference point in the FOV (eg, the zipper of the person's sweatshirt shown in live preview 630). Thus, the original pose indication 3970b is static while the current pose indication 3970c is not static with respect to a reference point within the FOV of one or more cameras. However, the display position of the current pose indication 3970c in FIGS. 39D-39K is based on changes in the pose of device 600 and not on movement of objects within the FOV.

いくつかの実施形態では、現在のポーズインジケーション3970cが動き、元のポーズインジケーション3970bが動かない。いくつかの実施形態では、元のポーズインジケーション3970bは、同じ位置に留まり、現在のポーズインジケーション3970cは、デバイス600が動いた方向にディスプレイ上を動き(例えば、現在のポーズインジケーション3970cは、図39D~図39Eに示すようにポーズが変化するとディスプレイ上で下向きかつ左向きに動く)、一方、元のポーズインジケーション3970bは、ディスプレイのほぼ中心に留まり、FOV内の基準点(例えば、ライブプレビュー630に示される人のスウェットシャツのジッパー)に対して静的でない。いくつかの実施形態では、現在のポーズインジケーション3970c及び元のポーズインジケーション3970bは、互いに対して動く。 In some embodiments, current pose indication 3970c moves and original pose indication 3970b does not move. In some embodiments, the original pose indication 3970b remains in the same position and the current pose indication 3970c moves on the display in the direction the device 600 is moved (e.g., the current pose indication 3970c 39D-39E when the pose changes), while the original pose indication 3970b remains approximately centered in the display and is a reference point within the FOV (e.g., live preview). not static for the person's sweatshirt zipper shown at 630). In some embodiments, current pose indication 3970c and original pose indication 3970b move relative to each other.

図39Fに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600の現在のポーズをデバイス600の元のポーズに一致させる試みが行われた(又は、換言すれば、デバイス600の現在のポーズとデバイス600の元のポーズとの間の差を補正する試みが行われた)。しかしながら、図39Fでは、現在のポーズ2668cが元のポーズ2668bの右上に今度はシフトされているため(図39Eにあったように元のポーズ2668bの左下にある代わりに)、過補正が生じている。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、(図39Cに関して上述したのと同様の理由で)図39Eのライブプレビュー630を介して人が表示されていた位置の左下に表示された人を示すように更新されている。 As shown in FIG. 39F, device 600 has moved indication 1818 from a capture duration of 3.5 seconds to a capture duration of 3 seconds. At some point during display of indication 1818 with a capture duration of 3 seconds, an attempt was made to match the current pose of device 600 to the original pose of device 600 (or in other words, the device An attempt was made to compensate for the difference between the current pose of 600 and the original pose of device 600). However, in FIG. 39F, the current pose 2668c is now shifted to the top right of the original pose 2668b (instead of being to the bottom left of the original pose 2668b as it was in FIG. 39E), resulting in overcompensation. there is Additionally, because the current pose of the device 600 has changed, the live preview 630 will display the position where the person would have been displayed via the live preview 630 of FIG. 39E (for similar reasons as described above with respect to FIG. has been updated to show the person displayed in the bottom left of the .

3秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。図39Fに示すように、そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970bを現在のポーズインジケーション3970cに向かってかつ過ぎて平行移動させて、元のポーズ2668bの右上にシフトされている現在のポーズ2668cを介しても示されるように、平行移動の大きさ、又はデバイス600の現在のポーズとデバイス600の元のポーズとの間の位置の差を表す。ここで、差が閾値差を上回るため、視覚ガイダンスは、(図39D~図39Eに関連して上述したものと同様の理由で)表示されたままであり続ける。 At some point while displaying indication 1818 with a capture duration of 3 seconds, device 600 detects a change in its pose. As shown in FIG. 39F, in response to detecting that pose change, device 600 translates original pose indication 3970b toward and past current pose indication 3970c to restore the original pose. Represents the magnitude of translation, or the difference in position between the current pose of device 600 and the original pose of device 600, as also shown via current pose 2668c, which is shifted to the upper right of 2668b. . Since the difference now exceeds the threshold difference, the visual guidance remains displayed (for similar reasons as discussed above in connection with FIGS. 39D-39E).

図39Gに示すように、デバイス600は、3秒のキャプチャ持続時間から2.5秒のキャプチャ持続時間にインジケーション1818を動かした。2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、ユーザは、デバイスのポーズを調整することによってデバイス600の現在のポーズをデバイス600の元のポーズと一致させるように再度試みた。グラフ的な説明図2668によって示されるように、デバイス600は、現在のポーズ2668cが元のポーズ2668bに対して傾斜していることによって示されるように、デバイス600の上部が図39FのものよりもFOV内の人に向かってより傾斜するような位置に傾斜している。 As shown in FIG. 39G, device 600 has moved indication 1818 from a capture duration of 3 seconds to a capture duration of 2.5 seconds. At some point while displaying indication 1818 with a capture duration of 2.5 seconds, the user matches the current pose of device 600 with the original pose of device 600 by adjusting the pose of the device. I tried again. As shown by graphical illustration 2668, device 600 has a lower top portion of device 600 than that of FIG. It is tilted to a position that tilts more towards the person in the FOV.

2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。そのポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970bを現在のポーズインジケーション3970cに対して歪める又は屈曲する。図39Gに示すように、元のポーズインジケーション3970bは、ある角度で歪められる又は屈曲される(例えば、元のポーズインジケーション3970bの1つ以上の部分が元のポーズインジケーション3970bの枢動点を介して内向きに屈曲される)。図39Gでは、元のポーズインジケーション3970bは、その一部分(例えば、図39Gの3970bの底部部分)がディスプレイスクリーンから出て、ライブプレビュー630内に立っている人から離れて(又はデバイス600を保持している可能性がある人に向かって)きているかのように見える。換言すれば、図39Gでは、元のポーズインジケーション3970bは、図39Fの現在のポーズインジケーション3970cと比較したときに、デバイス600から出てきて離れるような角度(例えば、デバイス600が傾斜している方向の反対)で屈曲される。いくつかの実施形態では、インジケータは、デバイス600を元の位置に戻して動かすためのフィードバックを与えるために、ライブプレビュー630内に立っている人と共に動くように見える。いくつかの実施形態では、デバイス600が、デバイス600の現在のポーズがデバイス600の元の位置に向かって更に傾斜していることを検出すると、デバイス600は、ライブプレビュー630内の人から更に離れて元のポーズインジケーション3970bの一部分を歪める又は屈曲することができる、又はその逆も同様である。いくつかの実施形態では、デバイス600は、代わりに又は加えて、そのポーズの変化を検出したことに応じて、現在のポーズインジケーション3970cを歪める又は屈曲することができる。 At some point while displaying indication 1818 with a capture duration of 2.5 seconds, device 600 detects a change in its pose. In response to detecting that pose change, device 600 distorts or bends original pose indication 3970b relative to current pose indication 3970c. As shown in FIG. 39G, the original pose indication 3970b is distorted or bent at an angle (eg, one or more portions of the original pose indication 3970b are pivot points of the original pose indication 3970b). flexed inwards via). In FIG. 39G, the original pose indication 3970b has a portion (e.g., the bottom portion of 3970b in FIG. 39G) out of the display screen and away from the person standing within the live preview 630 (or holding the device 600). to someone who may be). In other words, in FIG. 39G the original pose indication 3970b is angled to come out and away from the device 600 when compared to the current pose indication 3970c in FIG. opposite direction). In some embodiments, the indicator appears to move with the person standing within the live preview 630 to give feedback for moving the device 600 back to its original position. In some embodiments, when the device 600 detects that the current pose of the device 600 is tilted further toward the original position of the device 600, the device 600 moves further away from the person in the live preview 630. can distort or bend a portion of the original pose indication 3970b or vice versa. In some embodiments, device 600 may alternatively or additionally distort or bend current pose indication 3970c in response to detecting a change in its pose.

特に、図39Gでは、視覚ガイダンスは、デバイス600の現在のポーズとデバイス600の元のポーズとの間の複数の差(例えば、位置の差による平行移動の差、スキューによる傾斜の差、元のポーズインジケーション3970bに対して現在のポーズインジケーション3970cを回転させることによる回転差)を示す。したがって、図39Gでは、デバイス600は、デバイス600のユーザインタフェースを雑然とさせることがある、差のそれぞれに対して異なる視覚ガイダンスユーザインタフェース要素を提供する代わりに、複数の差を示す単一の視覚ガイダンスを提供する。更には、視覚ガイダンスは、視覚ガイダンス及びFOV内のシーンを同時に見ることができるように、ライブプレビュー630の上に提供される。 In particular, in FIG. 39G , the visual guidance shows multiple differences between the current pose of device 600 and the original pose of device 600 (e.g., difference in translation due to position difference, difference in tilt due to skew, original pose). Rotation difference) by rotating the current pose indication 3970c relative to the pose indication 3970b. Thus, in FIG. 39G, device 600 displays a single visual representation of multiple differences instead of providing a different visual guidance user interface element for each of the differences, which could clutter the user interface of device 600 . Provide guidance. Additionally, visual guidance is provided over the live preview 630 so that the visual guidance and the scene within the FOV can be viewed simultaneously.

いくつかの実施形態では、第1の差が閾値差を上回らない場合、視覚ガイダンスは、第1の差を示すように更新されない(例えば、現在のポーズインジケーション3970cは、元のポーズインジケーション3970bに対して回転されない、平行移動されない、又は歪められない)。いくつかの実施形態では、視覚ガイダンスは、第2の差が第2の閾値差を上回るかぎり、第1の差が第1の閾値差(例えば、第2の閾値差と同じ又は異なる閾値差)を上回るかどうかにかかわらず、第1の差を示すように更新される。 In some embodiments, if the first difference does not exceed the threshold difference, the visual guidance is not updated to show the first difference (eg, current pose indication 3970c replaces original pose indication 3970b). is not rotated, translated, or distorted with respect to). In some embodiments, the visual guidance provides that the first difference is equal to or different than the second threshold difference as long as the second difference is greater than the second threshold difference. is updated to indicate the first difference, whether or not it is greater than .

図39Hに示すように、デバイス600は、2.5秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致する。更には、デバイス600の現在のポーズが変化しているため、ライブプレビュー630は、人が図39Bでいたのと同じ位置に表示された人を示すように、更新されている。 As shown in FIG. 39H, device 600 has moved indication 1818 from a capture duration of 2.5 seconds to a capture duration of 2 seconds. As shown in graphical illustration 2668, current pose 2668c matches original pose 2668b. Additionally, because the current pose of device 600 has changed, live preview 630 has been updated to show the person displayed in the same position that the person was in in FIG. 39B.

2.5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。そのポーズの変化を検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差(又は任意選択的に、全ての差)が1つ以上の差閾値(例えば、回転閾値、傾斜閾値、及び/又は横方向移動閾値)未満である、又は差がない(例えば、回転、傾斜、及び/又は横方向移動に関して)ため、現在のポーズインジケーション3970cを元のポーズ3970bと同じ位置に平行移動させる。更には、ポーズの変化を検出したことに応じて、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であるため、現在のポーズインジケーション3970cのスキューを図39Gでデバイス600が傾斜していた前の現在のポーズインジケーション3970cのスキュー(例えば、図39Fに示すような)に戻して変更する。 At some point while displaying indication 1818 with a capture duration of 2.5 seconds, device 600 detects a change in its pose. In response to detecting that pose change, device 600 determines one or more differences (or optionally and all differences) are less than one or more difference thresholds (e.g., rotation threshold, tilt threshold, and/or lateral movement threshold) or no difference (e.g., rotation, tilt, and/or lateral translation), translate the current pose indication 3970c to the same position as the original pose 3970b. Further, in response to detecting a change in pose, device 600 detects one or more differences between the pose of device 600 when media capture began and the current pose of device 600. 39G, the skew of the current pose indication 3970c is returned to the skew of the previous current pose indication 3970c where the device 600 was tilted in FIG. 39G (eg, as shown in FIG. 39F). to change.

図39Hに示すように、元のポーズインジケーション3970b及び現在のポーズインジケーション3970cは、同じ位置に表示され、重なり合う。いくつかの実施形態では、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であるとき、デバイス600は、元のポーズインジケーション3970bを表示することを停止し、かつ/又は現在のポーズインジケーション3970cは、表示されることを停止する。 As shown in Figure 39H, the original pose indication 3970b and the current pose indication 3970c are displayed in the same position and overlap. In some embodiments, when one or more differences between the pose of device 600 when media capture was started and the current pose of device 600 are less than one or more threshold differences, device 600 stops displaying the original pause indication 3970b and/or the current pause indication 3970c stops being displayed.

図39Iに示すように、デバイス600は、2秒のキャプチャ持続時間から1.5秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致し続ける。換言すれば、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差は、1つ以上の閾値差未満であり続ける。2秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が所定の期間にわたって1つ以上の閾値差未満であったため、デバイス600は、視覚ガイダンス(例えば、元のポーズインジケーション3970b及び現在のポーズインジケーション3970c)を表示することを停止する。 As shown in FIG. 39I, device 600 has moved indication 1818 from a capture duration of 2 seconds to a capture duration of 1.5 seconds. As shown in graphical illustration 2668, current pose 2668c continues to match original pose 2668b. In other words, one or more differences between the pose of device 600 when media capture was initiated and the current pose of device 600 remain below one or more threshold differences. One or more differences between the pose of device 600 when media capture started and the current pose of device 600 at some point during display of indication 1818 with a capture duration of 2 seconds. has been less than one or more threshold differences for a predetermined period of time, device 600 stops displaying visual guidance (eg, original pose indication 3970b and current pose indication 3970c).

いくつかの実施形態では、デバイス600は、どれほど長く電子デバイスの現在のポーズが電子デバイスの元のポーズと一致していないか(例えば、どれほど長くデバイス600の元のポーズとデバイス600の現在のポーズとの間の1つ以上の差が1つ以上の閾値差未満であり続けるか)にかかわらず、視覚ガイダンスの表示を維持する。いくつかの実施形態では、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の差が閾値を上回り、かつ移動が検出されないとき、デバイス600は、視覚ガイダンスの表示を維持する。 In some embodiments, the device 600 detects how long the current pose of the electronic device does not match the original pose of the electronic device (e.g., how long the original pose of the device 600 and the current pose of the device 600 are different). remains less than one or more threshold differences), maintain the display of visual guidance. In some embodiments, when the difference between the pose of device 600 when media capture started and the current pose of device 600 exceeds a threshold and no movement is detected, device 600 provides visual guidance. display.

図39Jに示すように、デバイス600は、1.5秒のキャプチャ持続時間から1秒のキャプチャ持続時間にインジケーション1818を動かした。1秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。ポーズの変化が、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差を1つ以上の閾値差を上回らせたため、デバイス600は、視覚ガイダンスを再表示する。具体的には、グラフ的な説明図2668によって示すように、デバイス600は、元のポーズ2668bに対して反時計回りに約45度回転された、現在のポーズ(例えば、2668c)にある。したがって、ポーズの変化を検出したことに応じて、デバイス600は、現在のポーズインジケーション3970cに対して時計回りに約45度、元のポーズインジケーション3970bを回転させる。いくつかの実施形態では、デバイス600が反時計回りに更に回転されているポーズの変化を検出したことに応じて、デバイス600は、元のポーズインジケーション3970b(又は現在のポーズインジケーション3970c)を平行移動させる又は歪めることに関して上述したのと同様の技術を使用して、元のポーズインジケーション3970bを時計回りに更に回転させる。いくつかの実施形態では、代わりに又は加えて、デバイス600は、そのポーズの変化を検出したことに応じて、現在のポーズインジケーション3970cを回転させる。 As shown in FIG. 39J, device 600 has moved indication 1818 from a capture duration of 1.5 seconds to a capture duration of 1 second. At some point while displaying indication 1818 with a capture duration of 1 second, device 600 detects a change in its pose. Because the pose change caused the one or more differences between the pose of device 600 when media capture began and the current pose of device 600 to exceed one or more threshold differences, device 600: Redisplay visual guidance. Specifically, as shown by graphical illustration 2668, device 600 is in a current pose (eg, 2668c) rotated approximately 45 degrees counter-clockwise with respect to original pose 2668b. Thus, in response to detecting a change in pose, device 600 rotates original pose indication 3970b approximately 45 degrees clockwise relative to current pose indication 3970c. In some embodiments, in response to detecting a pose change in which device 600 is rotated further counterclockwise, device 600 changes original pose indication 3970b (or current pose indication 3970c) to Using techniques similar to those described above for translating or skewing, the original pose indication 3970b is further rotated clockwise. In some embodiments, device 600 alternatively or additionally rotates current pose indication 3970c in response to detecting a change in its pose.

図39Kに示すように、デバイス600は、1秒のキャプチャ持続時間から3/4秒のキャプチャ持続時間にインジケーション1818を動かした。グラフ的な説明図2668に示すように、現在のポーズ2668cは、元のポーズ2668bと一致する。図39Kに示すように、3/4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、図39Hに関連して上述したものと同様の技術を使用して、現在のポーズインジケーション3970cを更新する。 As shown in FIG. 39K, device 600 has moved indication 1818 from a capture duration of 1 second to a capture duration of 3/4 seconds. As shown in graphical illustration 2668, current pose 2668c matches original pose 2668b. As shown in FIG. 39K, at some point while displaying indication 1818 with a capture duration of 3/4 second, device 600 uses techniques similar to those described above with respect to FIG. 39H. to update the current pause indication 3970c.

図39Lに示すように、デバイス600は、3/4秒のキャプチャ持続時間から1/4秒のキャプチャ持続時間にインジケーション1818を動かした。1/4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、メディアのキャプチャが開始されたときのデバイス600のポーズとデバイス600の現在のポーズとの間の1つ以上の差が所定の期間にわたって1つ以上の閾値差未満であったため、デバイス600は、視覚ガイダンスを表示することを停止する(例えば、図39Iに関連して上述したものと同様の技術を使用して)。 As shown in FIG. 39L, device 600 has moved indication 1818 from a capture duration of 3/4 seconds to a capture duration of 1/4 second. One or more points between the pose of device 600 when media capture started and the current pose of device 600 at some point during display of indication 1818 with a capture duration of 1/4 second. has been less than one or more threshold differences for a predetermined period of time, device 600 stops displaying visual guidance (e.g., using techniques similar to those described above with respect to FIG. 39I). hand).

図39Mに示すように、デバイス600は、キャプチャ持続時間の終了(例えば、0秒)に到達したため、メディアのキャプチャを終了している。図39Mに示すように、デバイス600は、キャプチャされたメディアの視覚表現を用いてメディアコレクション624を更新し、非暗色シャッターアフォーダンス610を再表示する。 As shown in FIG. 39M, device 600 has finished capturing media because the end of the capture duration (eg, 0 seconds) has been reached. Device 600 updates media collection 624 with the visual representation of the captured media and redisplays non-dark shutter affordance 610, as shown in FIG. 39M.

図39N~図39Qは、図39A~図39Mでデバイス600がメディアをキャプチャするように構成されていたより短いキャプチャ値(例えば、2秒)に基づいてメディアをキャプチャするように構成されたデバイス600を示す。図39N~図39Qでは、2秒のキャプチャ持続時間値が閾値キャプチャ持続時間値(例えば、3秒)を下回るため、デバイス600は、任意選択的に、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が1つ以上の閾値差を上回る場合であっても、視覚ガイダンスを表示しない。 Figures 39N-39Q show the device 600 configured to capture media based on a shorter capture value (eg, 2 seconds) that the device 600 was configured to capture media in Figures 39A-39M. show. In FIGS. 39N-39Q, the capture duration value of 2 seconds is below the threshold capture duration value (eg, 3 seconds), so device 600 optionally changes the current pose of device 600 to the original pose of device 600 . Do not display visual guidance even if the one or more differences between the poses of are greater than one or more threshold differences.

図39Nに示すように、デバイス600は、低光環境で動作している。しかしながら、FOV内の周辺光の量は、図39A~図39MでFOV内にあった光量よりも多い。例えば、39Nにおいて、FOV内の周辺光は、図39AのFOV内の(現在の光レベル2680dによって表されるような)0.5ルクスの周辺光レベルとは対照的に、(現在の光レベル3980aによって表されるような)9ルクスである。FOV内の周辺光に基づいて、デバイス600は、2秒のキャプチャ持続時間で調整可能な低光モードコントロール1804上にインジケーション1818を表示する。図39Nでは、デバイス600は、シャッターアフォーダンス610上のタップジェスチャ3950nを検出する。 As shown in Figure 39N, the device 600 is operating in a low light environment. However, the amount of ambient light within the FOV is greater than the amount of light that was within the FOV in FIGS. 39A-39M. For example, at 39N, the ambient light within the FOV is (current light level 9 lux as represented by 3980a). Based on ambient light within the FOV, device 600 displays indication 1818 on adjustable low light mode control 1804 with a capture duration of 2 seconds. 39N, device 600 detects tap gesture 3950n on shutter affordance 610. In FIG.

図39Oに示すように、シャッターアフォーダンス610上のタップジェスチャ3950nを検出したことに応じて、デバイス600は、図39Bに関連して上述したものと同様の技術を使用して、メディアのキャプチャを開始し、シャッターアフォーダンス610を暗くする。 As shown in FIG. 39O, in response to detecting a tap gesture 3950n on shutter affordance 610, device 600 begins capturing media using techniques similar to those described above with respect to FIG. 39B. and darken the shutter affordance 610 .

図39Pに示すように、デバイス600は、2秒のキャプチャ持続時間から1秒のキャプチャ持続時間にインジケーション1818を動かした。1秒のキャプチャ持続時間において、デバイス600は、グラフ的な説明図2668によって示すような、そのポーズの変化を検出する。特に、図39Pでは、元のポーズ2668bに対する現在のポーズ2668cは、図39Eであったような、図39Pの元のポーズ2668bに対する現在のポーズ2668cと同じである。したがって、図39Pでは、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差は、(図39Eで1つ以上の差があったように)1つ以上の閾値差を上回る。しかしながら、図39Pでは、初期の2秒のキャプチャ持続時間が閾値キャプチャ持続時間を下回るため、デバイス600は、視覚ガイダンスを表示しない(開始の5秒のキャプチャ持続時間が閾値キャプチャ持続時間を上回っていた図39Eとは対照的に)。いくつかの実施形態では、図39Pの初期のキャプチャ持続時間が十分に短い場合、キャプチャ持続時間が時間切れになる前にデバイス600の現在のポーズに有用な調整を行うことができない、及び/又は調整がキャプチャされたメディアの品質に低減した影響を有し得るとの判定が行われている。 As shown in FIG. 39P, device 600 has moved indication 1818 from a capture duration of 2 seconds to a capture duration of 1 second. At a capture duration of 1 second, device 600 detects a change in its pose, as illustrated by graphical illustration 2668 . Specifically, in Figure 39P, the current pose 2668c for the original pose 2668b is the same as the current pose 2668c for the original pose 2668b in Figure 39P, as was in Figure 39E. Thus, in FIG. 39P, the one or more differences between the current pose of device 600 and the original pose of device 600 are measured by one or more thresholds (as were the one or more differences in FIG. 39E). outweigh the difference. However, in FIG. 39P, the device 600 does not display visual guidance because the initial 2-second capture duration is below the threshold capture duration (the initial 5-second capture duration was above the threshold capture duration). in contrast to FIG. 39E). In some embodiments, if the initial capture duration of FIG. 39P is short enough, no useful adjustments can be made to the current pose of device 600 before the capture duration times out and/or A determination has been made that the adjustments may have a reduced impact on the quality of the captured media.

いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が差の第2の閾値を上回る場合、デバイス600は、メディアをキャプチャすることを停止しない。いくつかの実施形態では、初期の2秒のキャプチャ持続時間が閾値キャプチャ持続時間未満であるため、デバイス600は、メディアをキャプチャすることを停止しない。いくつかの実施形態では、デバイス600の現在のポーズとデバイス600の元のポーズとの間の1つ以上の差が第2の閾値差を上回る場合、デバイス600は、キャプチャ持続時間が閾値キャプチャ持続時間を下回るときに、メディアをキャプチャすることを停止する。 In some embodiments, if one or more differences between the current pose of device 600 and the original pose of device 600 exceed a second threshold of differences, device 600 may choose to capture media. Do not stop. In some embodiments, the device 600 does not stop capturing media because the initial two second capture duration is less than the threshold capture duration. In some embodiments, if the one or more differences between the current pose of device 600 and the original pose of device 600 exceed a second threshold difference, device 600 sets the capture duration to threshold capture duration. Stop capturing media when time drops.

図39Qに示すように、デバイス600は、1秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かしており、デバイス600は、図18A~図18K、図19A~図19B、図20A~図20C、図21A~図2C、図26~図26Q、図27A~図27C、及び図28A~図28Bに関連して上述したものと同様の1つ以上の技術を使用して、メディアのキャプチャを終了している。 As shown in FIG. 39Q, the device 600 has moved the indication 1818 from a capture duration of 1 second to a capture duration of 0 seconds, and the device 600 is shown in FIGS. 20A-20C, 21A-2C, 26-26Q, 27A-27C, and 28A-28B, the media is finished capturing.

図40A~図40Bは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。方法4000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)で実行される。方法4000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 40A-40B are flow diagrams illustrating methods for providing guidance while capturing media, according to some embodiments. Method 4000 is performed on a device (eg, 100, 300, 500, 600) with a display device (eg, touch sensitive display). Some acts of method 4000 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、電子デバイス(例えば、600)は、コンピュータシステムである。コンピュータシステムは、任意選択的に、ディスプレイ生成構成要素と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, the electronic device (eg, 600) is a computer system. The computer system is optionally in communication (eg, wired communication, wireless communication) with the display generating component and with one or more input devices. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法4000は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As described below, method 4000 provides an intuitive way to provide guidance while capturing media. This method reduces the user's cognitive burden in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to manage media faster and more efficiently.

電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直若しくは対角線)長さ)の表現(例えば、630)(例えば、経時的表現、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(4002)。 The electronic device (e.g., 600) includes a display device (e.g., touch-sensitive display) and one or more cameras (e.g., one or more cameras on the same or different sides of the electronic device (e.g., front camera, rear camera)). (e.g. dual camera, triple camera, quad camera, etc.). An electronic device (e.g., 600), via a display device, displays one or more camera fields of view (e.g., an open observable area visible to the camera, horizontal (or vertical) image at a given distance from the camera lens. or diagonal length) representation (eg, 630) (eg, time-lapse representation, live preview feed of data from camera) is displayed (4002).

電子デバイス(例えば、600)が、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、3950a)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上のユーザ入力(例えば、3950a))を受信する(4004)。 While the electronic device (e.g., 600) is displaying a media capture user interface via the display device, the electronic device receives a request (e.g., 3950a) to capture media (e.g., displayed on the display device). User input (eg, 3950a) on a shutter affordance (eg, a selectable user interface object) present or physically connected is received (4004).

メディアをキャプチャする要求を受信したことに応じて、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(4006)。 In response to receiving a request to capture media, the electronic device begins capturing media via one or more cameras (eg, via at least a first camera of the one or more cameras). (4006).

1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアをキャプチャする要求を受信したことに応じてメディアキャプチャインタフェースを表示又は更新した)後の第1の時間において、電子デバイス(例えば、600)は、電子デバイス(例えば、600)の移動を検出する(4008)(例えば、電子デバイスは、電子デバイスの位置及び/又は向きの変化を検出する)。いくつかの実施形態では、電子デバイスが、表示デバイスを介して、表現を含むメディアキャプチャユーザインタフェースを表示している間に、電子デバイスの移動が(例えば、電子デバイス又は別のデバイスによって)検出される。 Initiated media capture via one or more cameras (e.g., initiated media capture, initialized one or more cameras, media capture interface in response to receiving a request to capture media) ), the electronic device (eg, 600) detects 4008 movement of the electronic device (eg, 600) (eg, the electronic device detects the position of the electronic device and the / or detect orientation changes). In some embodiments, movement of the electronic device is detected (e.g., by the electronic device or another device) while the electronic device is displaying a media capture user interface including the representation via the display device. be.

メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)の移動を検出したことに応じて(4010)、かつ、電子デバイスの検出された移動(例えば、ポーズの変化(例えば、図39C~図39G、図39J、及び図390~図39Pの2668b、2668c))が移動閾値(例えば、垂直又は水平平行移動などの1つ以上の方向の移動の非ゼロ閾値、ヨー、ピッチ、若しくはロールなどの回転、若しくは対象に向かう若しくは対象から離れる移動、又はこれらのタイプの移動の任意の組み合わせ)を上回るときに満たされる基準を含む、1組のガイダンス基準(例えば、低光モードがアクティブである場合、電子デバイスが特定のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定される)よりも長くメディアをキャプチャするように構成されているときに満たされる1組のガイダンス基準)が満たされているとの判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、2668b)(例えば、向き及び/又は位置)と電子デバイス(例えば、600)の現在のポーズ(例えば、2668c)(例えば、向き/又は位置)との間の1つ以上の差(例えば、1つ以上の異なる回転角又は回転軸の間の度(例えば、0度を含む任意の値)、差の閾値レベルよりも大きい、メディアのキャプチャが開始されたときの電子デバイスの向きとメディアのキャプチャが開始された後の電子デバイスの向きとの間の度)の視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c)を表示する(4012)。いくつかの実施形態では、第1の時間において、現在のポーズの電子デバイス(例えば、600)は、メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)のポーズである。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間とは異なるメディアのキャプチャを開始した後の時間において、現在のポーズの電子デバイス(例えば、600)は、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズである。いくつかの実施形態では、ポーズの差は、電子デバイス(例えば、600)の先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、(a)メディアのキャプチャを開始する時間での電子デバイス(例えば、600)の向きからの第1の差値を有する第1の時間での電子デバイス(例えば、600)の向きに従って、第1の外観を有し、かつ(b)メディアのキャプチャを開始する時間での電子デバイス(例えば、600)の向きからの第2の差値を有する第1の時間での電子デバイス(例えば、600)の向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する(例えば、図26J~図26Qに関連して、かつ図28A~図28Bの方法2800で上述したように、1つ以上の構成要素は、1つ以上の構成要素と組み合わせることができる)。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスの検出された移動が移動閾値を上回ったかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときに同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。所定の条件が満たされているときに、視覚ガイダンスを提供することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、キャプチャ持続時間が閾値キャプチャ持続時間を上回る場合、いつ電子デバイスがその元の位置から動いたかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚ガイダンスを提供することにより、ユーザが一連のユーザ入力を使用して電子デバイスを調整するためにメディアキャプチャリングプロセスを中断することを必要とせずに、電子デバイスをリアルタイムで調整する能力をユーザに提供し、正しいシーンをキャプチャしない可能性を低減する(例えば、キャプチャされることになる意図したシーンが時間的制約のあるシーンである場合、ユーザは、追加のユーザ入力を行なうときにシーンをキャプチャすることを逃すことがある)。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to detecting 4010 movement of the electronic device (eg, 600) at a first time after initiating media capture, and the detected movement of the electronic device (eg, a change in pose (eg, , 2668b, 2668c of FIGS. 39C-39G, 39J, and 390-39P)) is a non-zero threshold for movement in one or more directions such as vertical or horizontal translation, yaw, pitch , or rotation, such as roll, or movement toward or away from an object, or any combination of these types of movement) is met when a set of guidance criteria (e.g., low light mode is When active, the electronic device is configured to capture media for longer than a specified capture duration (e.g., time (e.g., total capture time, exposure time), measured in number of pictures/frames) Upon determining that the set of guidance criteria that are met when the user is in the active state, the electronic device (e.g., 600) communicates, via the display device, the pose of the electronic device when media capture is initiated (e.g., 2668b) (eg, orientation and/or position) and the current pose (eg, 2668c) (eg, orientation and/or position) of the electronic device (eg, 600). The degree (e.g., any value including 0 degrees) between one or more different rotation angles or rotation axes, greater than the threshold level of the difference between the orientation of the electronic device and the media when media capture is initiated. display 4012 a visual indication (e.g., visual guidance (e.g., 3970b, 3970c) of the orientation of the electronic device after capture was initiated). In time, the current pose of the electronic device (eg, 600) is the pose of the electronic device (eg, 600) at a first time after starting to capture media. At a time after starting to capture media that is different than the first time after starting to capture, the electronic device (e.g., 600) in the current pose is at a second time after starting to capture media. The pose of the electronic device, hi some embodiments, the pose difference is measured relative to the previous pose of the electronic device (eg, 600). In some embodiments, the pose difference is measured relative to a previous pose of the subject (eg, the current orientation of the electronic device) within the field of view of one or more cameras. In some embodiments, the difference is a non-zero difference. In some embodiments, at a first time after initiating media capture via one or more cameras, (a) the electronic device (e.g., 600) at the time to initiate media capture; The electronic device (e.g., 600) has a first appearance according to the orientation of the electronic device (e.g., 600) at a first time having a first difference value from the orientation, and (b) at a time to start capturing media. a visual guide having a second appearance different from the first appearance according to the orientation of the electronic device (e.g., 600) at a first time having a second difference value from the orientation (e.g., 600); display (eg, one or more components can be combined with one or more components as described above in connection with FIGS. 26J-26Q and in method 2800 of FIGS. 28A-28B); . By providing visual guidance, the user can quickly recognize when the detected movement of the electronic device has exceeded the movement threshold after media capture has begun, and the user can use the maximum The same framing can be maintained when capturing multiple images so that the numbers are usable and can be easily combined to form a usable or improved merged photograph. Providing improved visual feedback enhances the usability of the device and improves the user-device interface (e.g., assisting the user in providing appropriate input when operating/interacting with the device). , by reducing user error), and in addition by allowing the user to use the device more quickly and efficiently, the device uses less power and improves battery life. . By providing visual guidance when predetermined conditions are met, users can avoid wasting battery life and causing visual distraction in situations where visual guidance is less useful (e.g., By providing visual guidance when these conditions are not met, it is possible to quickly recognize when an electronic device has moved from its original position if the capture duration exceeds the threshold capture duration. can. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. By providing visual guidance when predetermined conditions are met, the electronic device can be used without requiring the user to interrupt the media capturing process to calibrate the electronic device with a series of user inputs. Provides the user with the ability to adjust the device in real-time, reducing the likelihood of not capturing the correct scene (e.g., if the intended scene to be captured is a time-sensitive scene, the user may may miss capturing the scene when doing user input for Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

いくつかの実施形態では、視覚インジケーションを表示している間に(4014)、表示された視覚インジケーションの一部分(例えば、3970c)(例えば、第1の部分の位置及び形状)は、検出されている電子デバイスの移動(例えば、閾値移動量を上回る移動)に応じて変化しない(静止したままである、同じサイズ/形状のままである)(表示された視覚インジケーションの第1の部分及び一部分(例えば、3970b)(例えば、第2の部分の位置又は形状(又は位置及び形状))を表示することを停止することを除くことは、検出されている電子デバイスの移動(例えば、閾値移動量を上回る移動)に応じて、変化する(例えば、動く、サイズを変更する、かつ/又は形状を変更する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間の後に、かつメディアキャプチャユーザインタフェース上の第1の位置に表示された視覚インジケーションの第1の部分及びメディアキャプチャユーザインタフェース上の第2の位置に表示された視覚インジケーションの第2の部分を表示している間に、電子デバイスは、メディアのキャプチャを開始した後の第6の時間における電子デバイスの移動を検出する(かつ/又は電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第5の時間の前である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、ディスプレイ上の第2の位置(例えば、オフセット位置)は、メディアキャプチャユーザインタフェース上の第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第6の時間における電子デバイスの移動を検出したことに応じて、電子デバイスは、メディアカメラユーザインタフェース上の第2の位置とは異なるメディアカメラユーザインタフェース上の第3の位置に視覚インジケーションの第2の部分を表示し、メディアキャプチャユーザインタフェース上の第1の位置における視覚インジケーションの第1の部分の表示を維持する。いくつかの実施形態では、第1の部分は、静的であり(例えば、電子デバイスの検出された移動に基づいて変化しない)、第2の部分は、静的ではない(例えば、電子デバイスの検出された移動に基づいて変化する)、又はその逆である。電子デバイスの移動が検出されている間に、変化しない(例えば、静的な)第1の部分と変化する(例えば、静的でない)第2の部分とを含む視覚ガイダンスを表示することにより、電子デバイスの元の位置に関する一貫したガイダンスを提供することによって(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするのに要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while displaying 4014 the visual indication, a portion (eg, 3970c) of the displayed visual indication (eg, the position and shape of the first portion) is detected. do not change (remain stationary, remain the same size/shape) in response to movement of the electronic device (e.g., movement above a threshold movement amount) (the first portion of the displayed visual indication and Except for ceasing to display a portion (e.g., 3970b) (e.g., the position or shape (or position and shape) of the second portion) is detected movement of the electronic device (e.g., threshold movement (e.g., moves, resizes, and/or changes shape), in some embodiments, for a first time after media capture begins. Later, displaying a first portion of the visual indication displayed at a first location on the media capture user interface and a second portion of the visual indication displayed at a second location on the media capture user interface. While doing so, the electronic device detects movement of the electronic device (and/or detects a change in pose (e.g., position or orientation) of the electronic device at a sixth time after starting media capture). ).In some embodiments, the first time after starting media capture is before the fifth time after starting media capture.In some embodiments, the first time after starting media capture is before the fifth time after starting media capture. A second position on the display (e.g., offset position) is different from the first position on the media capture user interface, hi some embodiments, in response to detecting movement of the electronic device at a sixth time after starting media capture, The electronic device displays a second portion of the visual indication at a third location on the media camera user interface that is different from the second location on the media camera user interface, and displays the second portion of the visual indication at the first location on the media capture user interface. maintain the display of the first portion of the visual indication in. In some embodiments, the first portion is static (e.g., detection of the electronic device). The second portion is non-static (eg, changes based on detected movement of the electronic device), or vice versa. By displaying visual guidance that includes a first portion that does not change (e.g., static) and a second portion that changes (e.g., non-static) while movement of the electronic device is detected; By providing consistent guidance on the original position of the electronic device (allowing the device to remain in a more stable pose throughout the process of capturing media, reducing the number of times it takes to capture a usable photo). ), the user can quickly correct the pose to improve media capture. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

メディアのキャプチャを開始した後の第1の時間における電子デバイス(例えば、600)の移動を検出したことに応じて(4010)、かつ1組のガイダンス基準が満たされていないとの判定に従って(例えば、図39Cで)(例えば、デバイスが移動閾値量未満動いたため、かつ/又はメディアをキャプチャするためのキャプチャ持続時間が持続時間閾値を下回るため)、電子デバイス(例えば、600)は、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイス(例えば、600)のポーズ(例えば、2668b)と電子デバイス(例えば、600)の現在のポーズ(例えば、2668c)との間の1つ以上の差の視覚インジケーションの表示をやめる(4016)(例えば、図39Cで視覚ガイダンスは表示されない)。いくつかの実施形態では、電子デバイスは、移動閾値を下回って留まっている間に、なんらかの移動を検出することができる。いくつかの実施形態では、視覚インジケーションが第1の時間に表示された後に、第1の時間とは異なる時間に、かつ視覚インジケーションを表示している間に、電子デバイスは、メディアのキャプチャの終了を検出し、メディアのキャプチャの終了を検出したことに応じて、電子デバイスは、表示デバイスを介して、視覚インジケーションを停止する。いくつかの実施形態では、電子デバイスは、電子デバイスの検出された移動が移動閾値よりも大きい第2の移動閾値(例えば、視覚インジケーションが表示されているときに満たされる移動閾値)を上回るとき、メディアをキャプチャすることを停止する。いくつかの実施形態では、視覚インジケーションは、第1の部分及び第2の部分を含む。いくつかの実施形態では、第1の部分は、静的である視覚インジケーションの一部分である。いくつかの実施形態では、第2の部分は、静的ではない視覚インジケーションの一部分である。いくつかの実施形態では、第1及び第2の部分は、静的ではない。いくつかの実施形態では、第1の部分は、電子デバイスの現在のポーズを表し、第2の部分は、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す、又はその逆である。 In response to detecting 4010 movement of an electronic device (e.g., 600) at a first time after initiating media capture, and following a determination that a set of guidance criteria has not been met (e.g., , in FIG. 39C) (eg, because the device has moved less than the movement threshold amount and/or because the capture duration for capturing media is below the duration threshold), the electronic device (eg, 600) moves the display device to between the pose (e.g., 2668b) of the electronic device (e.g., 600) when media capture started and the current pose (e.g., 2668c) of the electronic device (e.g., 600) via stop displaying 4016 the visual indication of the difference (eg, no visual guidance is displayed in FIG. 39C). In some embodiments, the electronic device can detect some movement while remaining below the movement threshold. In some embodiments, after the visual indication is displayed at the first time, at a time different from the first time and while displaying the visual indication, the electronic device captures the media. and in response to detecting the end of media capture, the electronic device ceases visual indication via the display device. In some embodiments, the electronic device detects when the detected movement of the electronic device exceeds a second movement threshold that is greater than the movement threshold (eg, the movement threshold met when the visual indication is displayed). , to stop capturing media. In some embodiments the visual indication includes a first portion and a second portion. In some embodiments, the first portion is a portion of the visual indication that is static. In some embodiments, the second portion is part of the visual indication that is not static. In some embodiments, the first and second portions are non-static. In some embodiments, the first portion represents the current pose of the electronic device and the second portion represents the pose of the electronic device when media capture was initiated, or vice versa.

いくつかの実施形態では、メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を含む。いくつかの実施形態では、メディアをキャプチャする要求を受信することの一部として、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、610)の選択(例えば、3950a及び3950n)(例えば、アフォーダンス上のタップ)を検出する。 In some embodiments, the media capture user interface includes a media capture affordance (eg, 610) (eg, selectable user interface object) (eg, shutter button). In some embodiments, as part of receiving a request to capture media, the electronic device (eg, 600) selects (eg, 3950a and 3950n) (eg, 3950a and 3950n) (eg, taps on affordances).

いくつかの実施形態では、電子デバイス(例えば、600)のポーズ(例えば、2668b、2668c)が第1の様式で変化した(例えば、図Eにおける2668b及び/又は2668c)(例えば、第1の軸の周りの回転又は第1の方向の平行移動)との判定に従って、メディアのキャプチャが開始されたときの電子デバイス(例えば、600)のポーズと電子デバイス(例えば、600)の現在のポーズとの間の1つ以上の差の視覚インジケーション(例えば、視覚ガイダンスの3970b)を表示することの一部として、電子デバイスは、外観の第1の変化を伴う視覚インジケーション(例えば、図39Eの視覚ガイダンスの3970b)を表示する。いくつかの実施形態では、外観の第1の変化の大きさ及び/又は方向は、第1の様式での電子デバイスのポーズの変化の大きさ及び/又は方向に基づく。いくつかの実施形態では、電子デバイス(例えば、600)のポーズ(例えば、2668b、2668c)が第1の様式とは異なる第2の様式(例えば、図39G及び/又は図39Jの2668b及び/又は2668c)で変化した(例えば、第1の軸とは異なる第2の軸の周りの回転、又は第1の方向とは異なる第2の方向の平行移動)との判定に従って、電子デバイス(例えば、600)は、外観の第2の変化を伴う視覚インジケーション(例えば、図39G及び/又は図39Jの視覚ガイダンスの3970b)を表示する。いくつかの実施形態では、外観の第1の変化の大きさ及び/又は方向は、第1の様式での電子デバイスのポーズの変化の大きさ及び/又は方向に基づく。いくつかの実施形態では、視覚インジケーションは、デバイスのポーズの変化の異なる様式(例えば、ヨー、ピッチ、ロール、及び/又はデバイスの原点からのx軸、y軸、若しくはz軸に沿った平行移動)に基づいて、3、4、5、又は6次元で変化する。いくつかの実施形態では、視覚インジケーションは、ある時点におけるデバイスのポーズの変化の1つの様式のみに応じて変化する。いくつかの実施形態では、視覚インジケーションは、ある時点におけるデバイスのポーズの変化の複数の様式に応じて変化する。 In some embodiments, the pose (eg, 2668b, 2668c) of the electronic device (eg, 600) is changed in a first manner (eg, 2668b and/or 2668c in FIG. E) (eg, the first axis or translation in a first direction), the pose of the electronic device (eg, 600) when media capture began and the current pose of the electronic device (eg, 600). As part of displaying a visual indication of one or more differences between (e.g., visual guidance 3970b), the electronic device displays a visual indication with a first change in appearance (e.g., the visual Display guidance 3970b). In some embodiments, the magnitude and/or direction of the first change in appearance is based on the magnitude and/or direction of the change in pose of the electronic device in the first manner. In some embodiments, the pose (e.g., 2668b, 2668c) of the electronic device (e.g., 600) is different in a second modality (e.g., 2668b and/or 2668c) changed (e.g., rotation about a second axis different from the first axis, or translation in a second direction different from the first direction), the electronic device (e.g., 600) displays a visual indication (eg, 3970b of the visual guidance of FIGS. 39G and/or 39J) with a second change in appearance. In some embodiments, the magnitude and/or direction of the first change in appearance is based on the magnitude and/or direction of the change in pose of the electronic device in the first manner. In some embodiments, the visual indications are different ways of changing the pose of the device (e.g., yaw, pitch, roll, and/or parallelism along the x-, y-, or z-axis from the origin of the device). movement) in 3, 4, 5, or 6 dimensions. In some embodiments, the visual indication changes in response to only one modality of device pose change at a given time. In some embodiments, the visual indication changes in response to multiple modalities of device pose changes at a given time.

いくつかの実施形態では、メディアのキャプチャが開始されたときの電子(例えば、デバイスのポーズ(例えば、2668b)と電子デバイスの現在のポーズ(例えば、2668c)との間の1つ以上の差の視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3870c))を表示することの一部として、電子デバイスは、同時に、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の第1の差を示す視覚特性を有する視覚インジケーション(例えば、図39Gの視覚ガイダンス(例えば、3970cから離れるように平行移動される3970b))(例えば、平行移動の差(例えば、電子デバイスの現在のポーズは、メディアが開始されたときの電子デバイスのポーズから1つ以上の方向(例えば、上、左、右、下、斜め、又はこれらの任意の組み合わせ)に平行移動され、電子デバイスは、それぞれの位置から1つ以上の方向に動いた)(例えば、横方向又は垂直方向の平行移動及び/又は移動)を表示し、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の第2の差を示す視覚特性を有する視覚インジケーション(例えば、図39Gの視覚ガイダンス(例えば、3970cからそれに対して歪められている3970b))(例えば、回転の差(例えば、電子デバイスの現在のポーズは、メディアが開始されたときの電子デバイスのポーズから1つ以上の方向(例えば、時計回り、反時計回り、又は任意の角度での任意の軸の周りのそれらの任意の組み合わせ)に回転され(例えば、傾斜される、歪められる、屈曲される)、電子デバイスは、それぞれの位置)(例えば、向き)から1つ以上の方向に回転されている)を表示し、第1の差及び第2の差は、異なる種類の差(例えば、向きの差、平行移動)である。いくつかの実施形態では、視覚インジケーションは、軸(例えば、電子デバイスの軸)の周りの電子デバイスの回転に基づいて動く(例えば、位置を変更する)(例えば、視覚ガイダンスの一部分が動き、視覚インジケーションの別の部分は同じままである)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの一部分(例えば、電子デバイスの現在のポーズを表す部分)の横方向変位を視覚的に表す。いくつかの実施形態では、固定半径が選択され、視覚インジケーションの動いている部分は、固定半径の中心の周りで回転する。いくつかの実施形態では、視覚インジケーションの動いている部分は、(例えば、固定半径の中心の周りで回転する)この回転の投影として表示される。キャプチャが開始されたときの電子デバイスのポーズとキャプチャが開始された後の電子デバイスのポーズとの間の複数の差を表す視覚ガイダンスインジケーションを表示することにより、複数の視覚ガイダンスインジケーションを表示してより雑然としたユーザインタフェースを提供することなしに、ユーザは、メディアキャプチャを改善するために差を迅速に識別して補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。キャプチャが開始されたときの電子デバイスのポーズとキャプチャが開始された後の電子デバイスのポーズとの間の複数の差を表す単一の視覚インジケーションを表示することにより、電子デバイスの現在のポーズを複数の様式でどのように調整するかを判定するために分析することができる1つの位置でのフィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, one or more differences between the electronic (e.g., device pose (e.g., 2668b) when media capture began and the electronic device's current pose (e.g., 2668c) As part of displaying visual indications (e.g., visual guidance (e.g., 3970b, 3870c)), the electronic device simultaneously indicates the pose of the electronic device when media capture began and the current state of the electronic device. A visual indication (e.g., the visual guidance of FIG. 39G (e.g., 3970b translated away from 3970c)) (e.g., a translation difference (e.g., , the current pose of the electronic device is translated in one or more directions (e.g., up, left, right, down, diagonal, or any combination thereof) from the pose of the electronic device when the media started. , the electronic device has moved in one or more directions from its respective position (e.g., horizontal or vertical translation and/or movement), and the electronic device's position when media capture was initiated. A visual indication having a visual characteristic that indicates a second difference between the pose and the current pose of the electronic device (e.g., the visual guidance of FIG. , the difference in rotation (e.g., the current pose of the electronic device is one or more directions (e.g., clockwise, counterclockwise, or any about an axis (any combination thereof)) and the electronic device is rotated (e.g., tilted, distorted, flexed) in one or more directions from a respective position (e.g., orientation) ), and the first difference and the second difference are different types of difference (e.g., orientation difference, translation).In some embodiments, the visual indication is an axis (e.g., , the axis of the electronic device) (e.g., one portion of the visual guidance moves while another portion of the visual indication remains the same). In some embodiments, the electronic device visually represents lateral displacement of a portion of the visual indication (e.g., the portion representing the current pose of the electronic device.) In some embodiments, a fixed radius is selected. , visual in The moving portion of the motion rotates around a fixed radius center. In some embodiments, the moving portion of the visual indication is displayed as a projection of this rotation (eg, rotating around a fixed radius center). Displaying multiple visual guidance indications by displaying visual guidance indications representing multiple differences between the pose of the electronic device when the capture was initiated and the pose of the electronic device after the capture was initiated Users can quickly identify and correct differences to improve media capture without providing a more cluttered user interface. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. The current pose of the electronic device by displaying a single visual indication representing multiple differences between the pose of the electronic device when capture started and the pose of the electronic device after capture started. provides feedback at one location that can be analyzed to determine how to adjust in multiple ways. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、3970b)(例えば、第1の1組の1つ以上の形状(例えば、第1のボックス、十字形、円/楕円、1つ以上の線))と、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、3970c)(例えば、第2の1組の1つ以上の形状(例えば、第2のボックス、十字形、円/楕円、1つ以上の線))と、を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、メディアのキャプチャが開始された後の電子デバイスのポーズの変化に応じて変化する外観(例えば、図39F~図39Gの3970c)で(かつ、いくつかの実施形態では、視覚インジケーションの別の部分の外観を変更することなく)視覚インジケーションの第1の部分(例えば、3790b)及び第2の部分(例えば、3790c)のうちの少なくとも1つを表示する。 In some embodiments, the visual indication is a first portion (eg, 3970b) of the visual indication (eg, 3970b) (eg, a first set of 1 One or more shapes (e.g., a first box, a cross, a circle/ellipse, one or more lines) and a second portion of the visual indication (e.g., 3970c) representing the current pose of the electronic device ( For example, a second set of one or more shapes (eg, a second box, cross, circle/ellipse, one or more lines). In some embodiments, movement of the electronic device (e.g., rotational movement (e.g., movement that changes the orientation (e.g., current orientation) of the electronic device)) at a first time after initiating media capture is As part of displaying a visual indication in response to the detection, the electronic device displays an appearance that changes in response to changes in the pose of the electronic device after media capture has begun (e.g., FIGS. 3970c) of FIG. 39G (and in some embodiments, without altering the appearance of another portion of the visual indication) the first portion (e.g., 3790b) and the second portion (e.g., 3790b) of the visual indication. For example, display at least one of 3790c).

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、3970b)(例えば、電子デバイスの元のポーズ又は現在のポーズを表す)(例えば、1つ以上の形状(例えば、第2のボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、電子デバイスの回転量に基づいて判定される第1の回転量(例えば、回転量(例えば、1、2、5、10、15、25、45度))(例えば、ピッチ、ヨー、ロール回転、又はこれらの任意の組み合わせ)、回転された視覚インジケーションの一部分(例えば、39I又は39Gの3970b)を表示する。いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、又は1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションは、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円、又は1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションの第2の部分は、第1の部分の周りの第1の回転に対して回転される。いくつかの実施形態では、第1の部分は、回転され、第2の部分は、静的である(例えば、回転しない)。いくつかの実施形態では、第2の部分は、回転され、第1の部分は、静的である(例えば、回転しない)。いくつかの実施形態では、第1の部分及び第2の部分は、回転される。いくつかの実施形態では、第1の部分は、静的である視覚インジケーションの一部分である。いくつかの実施形態では、第2の部分は、静的ではない視覚インジケーションの一部分である。キャプチャが開始されたときの電子デバイスのポーズを表す一部分及びキャプチャが開始された後の電子デバイスのポーズを表す一部分を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the visual indication is a portion (e.g., 3970b) of the visual indication (e.g., representing the original or current pose of the electronic device) (e.g., one or more shapes (e.g., second 2 boxes, crosses, circles/ovals, one or more lines)). In some embodiments, movement of the electronic device (e.g., rotational movement (e.g., movement that changes the orientation (e.g., current orientation) of the electronic device)) at a first time after initiating media capture is As part of displaying a visual indication in response to the detection, the electronic device displays a first amount of rotation (e.g., an amount of rotation (e.g., 1, 2 , 5, 10, 15, 25, 45 degrees)) (e.g., pitch, yaw, roll rotation, or any combination thereof) to display a portion of the rotated visual indication (e.g., 3970b of 39I or 39G) do. In some embodiments, the visual indication is a first portion of the visual indication (e.g., a set of one or more shapes (e.g., a box , a cross, a circle/ellipse, or one or more lines)). In some embodiments, the visual indication is a second portion of the visual indication (e.g., a set of one or more shapes (e.g., box, cross, circle, or contains one or more lines)). In some embodiments, the second portion of the visual indication is rotated relative to the first rotation around the first portion. In some embodiments, the first portion is rotated and the second portion is static (eg, non-rotating). In some embodiments, the second portion is rotated and the first portion is static (eg, non-rotating). In some embodiments, the first portion and the second portion are rotated. In some embodiments, the first portion is a portion of the visual indication that is static. In some embodiments, the second portion is part of the visual indication that is not static. By displaying visual guidance that includes a portion representing the pose of the electronic device when capture was initiated and a portion representing the pose of the electronic device after capture was initiated, the user is provided with a relative understanding of the pose of the electronic device. Changes can be identified quickly, which reduces the number of times it takes to capture a usable photo (because the device can remain in a more stable pose throughout the process of capturing media). 2) Users can quickly correct poses to improve media capture. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1の回転量だけ回転された(例えば、図39Iのように)(例えば、ピッチ、ヨー、ロール回転、又はそれらの任意の組み合わせ)視覚インジケーションの一部分を表示している間に、回転された視覚インジケーションの一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動(例えば、回転又は向きの変化)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第2の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動(例えば、図39Gの2668b、2668c)(例えば、ジャイロスコープによって検出された回転の変化などの回転の変化(例えば、ヨー、ピッチ、ロール))を検出したことに応じて、電子デバイスは、検出された回転移動の量に基づいて判定される第2の回転量(例えば、回転量(例えば、1、2、5、10、15、25、45度))、視覚インジケーションの一部分(例えば、39Gの3970b)を回転させる(例えば、ヨー、ピッチ、ロール(又はこれらの任意の組み合わせ)回転を介して変更する)。(例えば、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転量)、第2の回転量は、第1の回転量とは異なる(例えば、より多い又はより少ない)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第2の時間の前である。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(及び/又は第2の部分)に対して(例えば、その周りで)回転された視覚インジケーションの第2の部分(及び/又は第1の部分)を表示する(例えば、メディアのキャプチャを開始した後の第2の時間における電子デバイスの回転移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(及び/又は第2の部分)に対して第1の回転量から第2の回転量に回転する第2の部分(及び/又は第1の部分)のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第2の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に回転された(又はより大きい回転角度を有する)(又はより小さい)とき、視覚インジケーションの第2の部分は、視覚インジケーションの第1の部分に対してより大きく(又はより小さく)回転される(又は、換言すれば、第2の回転量は、第1の回転量よりも大きい(又は、視覚インジケーションの第2の部分がより小さく歪められたとき、より小さい))、又はその逆である。電子デバイスの回転に基づいて視覚ガイダンスの一部分を回転させることにより、キャプチャが開始されたときの電子デバイスの向き及び電子デバイスの現在のポーズに関する情報をユーザに提供し、ユーザは、電子デバイスのポーズの回転変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 Some embodiments display a portion of the visual indication (e.g., pitch, yaw, roll rotation, or any combination thereof) rotated by a first amount of rotation (e.g., as in FIG. 39I). As part of displaying a portion of the rotated visual indication while the electronic device is rotating, the electronic device may be rotated (e.g., rotated or oriented) at a second time after initiating media capture. change). In some embodiments, the first time after starting to capture media is before the second time after starting to capture media. In some embodiments, rotational movement of the electronic device (e.g., 2668b, 2668c in FIG. 39G) at a second time after initiating media capture (e.g., rotational changes such as rotational changes detected by the gyroscope) (e.g., yaw, pitch, roll)), the electronic device generates a second amount of rotation (e.g., an amount of rotation (e.g., 1, 2, 5, 10, 15, 25, 45 degrees)), rotating (e.g., yaw, pitch, roll (or any combination thereof)) a portion of the visual indication (e.g., 3970b of 39G). change via). (eg, the amount of rotation of the electronic device at a second time after beginning media capture), the second amount of rotation is different (eg, more or less) than the first amount of rotation. In some embodiments, the first time after starting to capture media is before the second time after starting to capture media. In some embodiments, the electronic device rotates the second portion of the visual indication (e.g., about it) with respect to the first portion (and/or the second portion) of the visual indication ( and/or the first portion) (eg, in response to detecting rotational movement of the electronic device at a second time after initiating media capture). In some embodiments, the electronic device rotates the second portion (or and/or the first part). In some embodiments, the current pose of the electronic device (e.g., the pose of the electronic device at the second time) is the previous pose of the electronic device (e.g., the pose of the electronic device at the time media capture began). , the pose of the electronic device at the first time), the second portion of the visual indication is rotated (or has a greater rotation angle) (or less) than the first portion of the visual indication. The portion is rotated more (or less) (or in other words the second amount of rotation is greater than the first amount of rotation (or the second portion of the visual indication is less smaller when distorted)), or vice versa. Rotating a portion of the visual guidance based on the rotation of the electronic device provides the user with information about the orientation of the electronic device when capture was initiated and the current pose of the electronic device, allowing the user to pose the electronic device. changes in rotation can be quickly identified, which reduces the number of times it takes to capture a usable photo (because the device can remain in a more stable pose throughout the process of capturing media). ), the user can quickly correct the pose to improve media capture. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、39Fの3970b)(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す部分(例えば、39Fの3970b)又は電子デバイスの現在のポーズを表す視覚インジケーションの一部分(例えば、39Fの3970c))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、回転移動(例えば、電子デバイスの向き(例えば、現在の向き)を変更する移動))を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、第1のスキュー量(例えば、別の部分(例えば、39Fの3970c)に対して第1の量(例えば、屈曲の角度量(例えば、1~180度)))を有する(又は歪められた)部分(例えば、39Fの3970b)を表示する。 In some embodiments, the visual indication is a portion of the visual indication (e.g., 3970b at 39F) (e.g., a portion representing the pose of the electronic device when media capture is initiated (e.g., 3970b at 39F) or a portion of a visual indication representing the current pose of the electronic device (eg, 3970c of 39F)). In some embodiments, movement of the electronic device (e.g., rotational movement (e.g., movement that changes the orientation (e.g., current orientation) of the electronic device)) at a first time after initiating media capture is As part of displaying a visual indication in response to the detection, the electronic device skews a first amount (e.g., 3970c of 39F) by a first amount (e.g., , an angular amount of bending (eg, 1-180 degrees))) (eg, 3970b of 39F).

いくつかの実施形態では、第1のスキュー量を有する一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第3の時間における電子デバイスの移動(例えば、回転、傾斜、スキュー移動)(例えば、図39Gの傾斜(例えば、2668b及び2668cによって示される))(例えば、向きの変化)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第3の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第3の時間における電子デバイスの移動を検出したことに応じて、電子デバイスは、(例えば、別の部分(例えば、図39Gの3970b)に対して)第2のスキュー量を有する(又は歪められた)一部分(例えば、図39Gの3970c)を表示し(例えば、歪める)、第2のスキュー量は、第1のスキュー量とは異なる(例えば、より大きい又はより小さい)(例えば、屈曲の角度量(例えば、1~180度))。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第3の時間の前である。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分(又は第2の部分)の周りに(又はそれから離れるように)歪められた又は屈曲された視覚インジケーションの第2の部分(又は第1の部分)を表示する(例えば、メディアのキャプチャを開始した後の第3の時間における電子デバイスの回転移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、第1のスキュー量から第2のスキュー量に屈曲する又は歪められる第1の部分(又は第2の部分)のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第3の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に回転された(例えば、より大きい回転角度を有する)(又はより小さい)とき、視覚インジケーションの第2の部分(又は第1の部分)は、より大きく(又はより小さく)歪められる又は屈曲される(又は、換言すれば、第2のスキュー量は、第1のスキュー量よりも大きい(又は、視覚インジケーションの第2の部分がより小さく歪められた又は屈曲されたとき、より小さい))。電子デバイスの回転に基づいて視覚ガイダンスの一部分を歪めることにより、キャプチャが開始されたときの電子デバイスの向き及びキャプチャが開始された後の電子デバイスのポーズを表す第2に関する情報をユーザに提供し、ユーザは、電子デバイスのポーズのスキュー変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying the portion having the first amount of skew, the electronic device moves (e.g., rotates, tilt, skew movement) (eg, tilt (eg, indicated by 2668b and 2668c) in FIG. 39G) (eg, change in orientation). In some embodiments, the first time after starting to capture media is before the third time after starting to capture media. In some embodiments, in response to detecting movement of the electronic device at a third time after initiating media capture, the electronic device (e.g., another portion (e.g., 3970b in FIG. 39G) display (e.g., distort) a portion (e.g., 3970c in FIG. 39G) that has (or is distorted) a second amount of skew (relative to the (eg, greater or lesser) (eg, angular amount of bend (eg, 1-180 degrees)). In some embodiments, the first time after starting to capture media is before the third time after starting to capture media. In some embodiments, the electronic device comprises a second portion of the visual indication that is distorted or bent around (or away from) the first portion (or second portion) of the visual indication. Displaying the portion (or the first portion) (eg, in response to detecting rotational movement of the electronic device at a third time after beginning media capture). In some embodiments, the electronic device displays an animation of the first portion (or the second portion) being bent or distorted from the first skew amount to the second skew amount. In some embodiments, the current pose of the electronic device (e.g., the pose of the electronic device at the third time) is the previous pose of the electronic device (e.g., , the pose of the electronic device at the first time), the second part (or the first part) of the visual indication is , is distorted or bent more (or less) (or in other words, the second skew amount is greater than the first skew amount (or the second portion of the visual indication is less smaller when distorted or bent)). Distorting a portion of the visual guidance based on the rotation of the electronic device provides the user with information about the orientation of the electronic device when capture was initiated and a second representing the pose of the electronic device after capture was initiated. , the user can quickly identify skew changes in the pose of the electronic device, which allows the device to remain in a more stable pose throughout the process of capturing media, thus capturing usable photographs. The user can quickly correct poses to improve media capture (so that the number of times it takes to do so is reduced). By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、視覚インジケーションは、視覚インジケーションの一部分(例えば、図39Dの3970b)(例えば、電子デバイスの元のポーズ(又は現在のポーズ)を表す(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線)))を含む。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間における電子デバイスの移動(例えば、図39Dの2668b及び2668c)(例えば、平行移動)を検出したことに応じて、視覚インジケーションを表示することの一部として、電子デバイスは、視覚インジケーションの一部分を第1の位置(例えば、図39Dの3970b)(例えば、電子デバイスの位置(例えば、2668c)に基づいて判定される位置(例えば、表示デバイス上の)(かつ、いくつかの実施形態では、一部分の重心は、第1の位置にある))に表示する。いくつかの実施形態では、第1の距離の量は、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの現在のポーズへの電子デバイスの平行移動の量に基づく。いくつかの実施形態では、視覚インジケーションの一部分の位置は、電子デバイスが移動した方向に基づく。いくつかの実施形態では、視覚インジケーションは、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションは、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、1組の1つ以上の形状(例えば、ボックス、十字形、円/楕円、1つ以上の線))を含む。いくつかの実施形態では、視覚インジケーションの第2の部分は、第1の部分に対して平行移動される。いくつかの実施形態では、第1の部分は、平行移動され、第2の部分は、静的である。いくつかの実施形態では、第2の部分は、平行移動され、第1の部分は、静的である。いくつかの実施形態では、第1の部分及び第2の部分は、平行移動される。いくつかの実施形態では、視覚インジケーションの一部分は、第1の部分又は第2の部分から第1の距離(例えば、各部分の中心(例えば、部分の重心)からの距離)である。 In some embodiments, the visual indication represents a portion of the visual indication (eg, 3970b in FIG. 39D) (eg, the original pose (or current pose) of the electronic device (eg, one of a set (eg, box, cross, circle/ellipse, one or more lines))). In some embodiments, a visual indicator is provided in response to detecting movement (e.g., translation) of the electronic device (e.g., 2668b and 2668c in FIG. 39D) at a first time after initiating media capture. As part of displaying the option, the electronic device determines a portion of the visual indication based on a first position (e.g., 3970b in FIG. 39D) (e.g., electronic device position (e.g., 2668c)). position (eg, on a display device) (and in some embodiments the centroid of the portion is at the first position). In some embodiments, the first distance amount is based on the amount of translation of the electronic device from the pose of the electronic device when media capture was initiated to the current pose of the electronic device. In some embodiments, the position of the portion of the visual indication is based on the direction the electronic device was moved. In some embodiments, the visual indication is a first portion of the visual indication (e.g., a set of one or more shapes (e.g., a box , cross, circle/ellipse, one or more lines)). In some embodiments, the visual indication is a second portion of the visual indication (e.g., a set of one or more shapes (e.g., box, cross, circle/ellipse) representing the current pose of the electronic device. , one or more lines)). In some embodiments, the second portion of the visual indication is translated with respect to the first portion. In some embodiments, the first portion is translated and the second portion is static. In some embodiments, the second portion is translated and the first portion is static. In some embodiments, the first portion and the second portion are translated. In some embodiments, the portion of the visual indication is a first distance from the first portion or the second portion (eg, from the center of each portion (eg, the center of gravity of the portion)).

いくつかの実施形態では、第1の位置(例えば、図39Dの3970b)に視覚インジケーションの一部分を表示することの一部として、電子デバイスは、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動(例えば、図39Fの2668b、2668c)(例えば、1つ以上の方向(例えば、上、左、右、下、斜め、又はこれらの任意の組み合わせ)の移動)を検出する。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第4の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて、電子デバイスは、視覚インジケーションの一部分を第2の位置(例えば、図39Eの3970b)(例えば、位置(例えば、表示デバイス上の又はシーンに対する)(及び、いくつかの実施形態では、一部分の重心は、第1の位置にある))に(例えば、平行移動、移動、又はシフトを介して)表示し、第2の部分は、電子デバイスの平行移動に基づいて判定される電子デバイスの平行移動(例えば、第4の時間における電子デバイスの位置)に基づく第1の位置から第2の位置までの距離、平行移動され、第2の位置は、第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて、電子デバイスは、視覚インジケーションの別の部分から第2の距離に視覚インジケーションの一部分を平行移動させ(例えば、動かす、シフトさせる)、第2の距離は、第1の距離とは異なる(例えば、それよりも大きい又はそれよりも小さい)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の部分に対して(例えば、それから離れるように、近づくように)平行移動された視覚インジケーションの第2の部分を表示する(例えば、メディアのキャプチャを開始した後の第4の時間における電子デバイスの平行移動を検出したことに応じて)。いくつかの実施形態では、電子デバイスは、視覚インジケーションの第1の(又は第2の)部分から離れる第1の距離である位置から視覚インジケーションの第1の(又は第2の)部分から離れる第2の距離である位置に動く第2の(又は第1の)部分のアニメーションを表示する。いくつかの実施形態では、電子デバイスの現在のポーズ(例えば、第4の時間における電子デバイスのポーズ)が、メディアのキャプチャが開始されたときの電子デバイスのポーズから電子デバイスの以前のポーズ(例えば、第1の時間における電子デバイスのポーズ)よりも更に(又はより小さく)平行移動された(例えば、横方向に平行移動された)とき、視覚インジケーションの第2の部分は、視覚インジケーションの第1の部分から更に離れている(又はより近い)(又は、換言すれば、第2の距離は、第1の距離よりも大きい(又は、視覚インジケーションの第2の部分が視覚インジケーションの第1の部分により近いとき、より小さい))、又はその逆である。電子デバイスの平行移動に基づいて視覚ガイダンスの一部分を平行移動させることにより、キャプチャが開始されたときの電子デバイスの向き及びキャプチャが開始された後の電子デバイスのポーズを表す第2に関する情報をユーザに提供し、ユーザは、電子デバイスのポーズの平行移動変化を迅速に識別することができ、これにより、(メディアをキャプチャするプロセス全体を通してデバイスがより安定したポーズに留まることができるため、使用可能な写真をキャプチャするために要する回数が低減されるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, as part of displaying the portion of the visual indication at the first location (e.g., 3970b in FIG. 39D), the electronic device a fourth time after initiating media capture. (e.g., movement in one or more directions (e.g., up, left, right, down, diagonal, or any combination thereof)) of the electronic device in the . In some embodiments, the first time after starting to capture media is before the fourth time after starting to capture media. In some embodiments, in response to detecting translation of the electronic device at a fourth time after initiating media capture, the electronic device moves a portion of the visual indication to a second position (e.g., 3970b of FIG. 39E) to (e.g., position (e.g., on the display device or relative to the scene) (and in some embodiments, the centroid of the portion is at the first position)) (e.g., translation, movement, or shift), the second portion being determined based on the translation of the electronic device (e.g., the position of the electronic device at a fourth time). to a second position, the second position being different than the first position. In some embodiments, in response to detecting translation of the electronic device at a fourth time after initiating media capture, the electronic device moves a second distance from another portion of the visual indication. A portion of the visual indication is translated (eg, moved, shifted) and the second distance is different (eg, greater or less than) than the first distance. In some embodiments, the electronic device displays the second portion of the visual indication translated (e.g., away from, toward) the first portion of the visual indication ( for example, in response to detecting translation of the electronic device at a fourth time after beginning media capture). In some embodiments, the electronic device measures the distance from the first (or second) portion of the visual indication from a position that is a first distance away from the first (or second) portion of the visual indication. Display an animation of the second (or first) portion moving to a position that is a second distance apart. In some embodiments, the current pose of the electronic device (eg, the pose of the electronic device at the fourth time) is the previous pose of the electronic device (eg, the pose of the electronic device at the time media capture was initiated). , the pose of the electronic device at the first time), the second portion of the visual indication is the Further (or closer) to the first portion (or, in other words, the second distance is greater than the first distance (or the second portion of the visual indication is smaller when closer to the first part)), or vice versa. By translating a portion of the visual guidance based on the translation of the electronic device, the user obtains information about a second representing the orientation of the electronic device when capture is initiated and the pose of the electronic device after capture is initiated. , the user can quickly identify translational changes in the pose of the electronic device, which allows the device to remain in a more stable pose throughout the process of capturing media, thus making it usable Users can quickly correct poses to improve media capture (so that the number of times it takes to capture a good photo is reduced). By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、視覚インジケーションは、1つ以上の差の大きさ(例えば、3970cと比較したときの3970b)(例えば、電子デバイスの現在の(例えば、又は以前の)ポーズとメディアのキャプチャが開始されたときの電子デバイスのポーズとの間の距離又は角度)を示す。いくつかの実施形態では、1つ以上の差の大きさは、複数の差の組み合わされた大きさである。いくつかの実施形態では、大きさは、1つ以上の差のそれぞれの差の大きさである。 In some embodiments, the visual indication is one or more of the magnitude of the difference (eg, 3970b compared to 3970c) (eg, the current (eg, or previous) pose of the electronic device and the media the distance or angle between the pose of the electronic device when the capture started. In some embodiments, the one or more difference magnitudes is a combined magnitude of the plurality of difference magnitudes. In some embodiments, the magnitude is the magnitude of each of the one or more differences.

いくつかの実施形態では、電子デバイスのポーズがメディアのキャプチャが開始されたときの電子デバイスのポーズと異なる第1の時間において、視覚インジケーションは、メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの電子デバイスのポーズを表す視覚インジケーションの第1の部分(例えば、3970b)を含み、視覚インジケーションは、メディアキャプチャユーザインタフェース上の第1の位置とは異なるメディアキャプチャユーザインタフェース上の第2の位置に、電子デバイスの現在のポーズを表す視覚インジケーションの第2の部分(例えば、3970c)を含む。 In some embodiments, the visual indication is displayed at a first location on the media capture user interface at a first time when the pose of the electronic device differs from the pose of the electronic device when media capture was initiated. a first portion (e.g., 3970b) of a visual indication representing a pose of the electronic device when media capture is initiated, the visual indication being associated with a first location on the media capture user interface; includes a second portion (eg, 3970c) of visual indication representing the current pose of the electronic device at a second location on a different media capture user interface.

いくつかの実施形態では、第1の位置に視覚インジケーションの第1の部分(例えば、図39Gの3970b)を表示し、かつ第2の位置に視覚インジケーションの第2の部分(例えば、図39Gの3970c)を表示した後に、かつメディアをキャプチャしている間に、電子デバイスは、メディアのキャプチャを開始した後の第5の時間における電子デバイスの移動を検出する(かつ/又は電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第5の時間の前である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズと間の差が存在するときに、ディスプレイ上の第2の位置(例えば、オフセット位置)は、メディアキャプチャユーザインタフェース上の第1の位置とは異なる。いくつかの実施形態では、メディアのキャプチャを開始した後の第5の時間における電子デバイスの移動を検出したことに応じて、かつメディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値量差未満(又は内)であるとの判定に従って(例えば、電子デバイスの現在の回転及び/又は現在の平行移動は、メディアのキャプチャが開始されたときの電子デバイスの回転及び平行移動の閾値回転及び閾値平行移動とともにある)、メディアカメラユーザインタフェース上の第2の位置(例えば、図39Hの3970c)に電子デバイスは、視覚インジケーションの第1の部分(例えば、図39Hの3970b)(例えば、第1の1つ以上の形状)を表示し、視覚インジケーションの第1の部分(例えば、第1の1組の1つ以上の形状)及び視覚インジケーションの第2の部分(例えば、第2の1組の1つ以上の形状)は、互いに重なり合う(例えば、1つの部分が別の部分の上に重ね合わされる)。いくつかの実施形態では、視覚インジケーションの第1の部分及び視覚インジケーションの第2の部分のうちの少なくとも1つは、第1の部分及び第2の部分が互いに重なり合う又は重ね合わされたときに、半透明である。いくつかの実施形態では、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量内にないとの判定に従って、電子デバイスは、第1の位置とは異なるメディアカメラユーザインタフェース上の位置に視覚インジケーションの第2の部分を表示し、視覚インジケーションの第1の部分及び視覚インジケーションの第2の部分は、互いに重ならない。 In some embodiments, a first portion of the visual indication (e.g., 3970b in FIG. 39G) is displayed at a first location and a second portion of the visual indication (e.g., a 3970c) of 39G) and while capturing media, the electronic device detects movement of the electronic device (and/or detecting changes in pose (eg, position or orientation)). In some embodiments, the first time after starting to capture media is before the fifth time after starting to capture media. In some embodiments, when there is a difference between the pose of the electronic device when media capture is initiated and the pose of the electronic device at a first time after media capture is initiated, the display The second position (eg, offset position) above is different than the first position on the media capture user interface. In some embodiments, in response to detecting movement of the electronic device at a fifth time after initiating media capture and when media capture is initiated, the pose of the electronic device and the According to a determination that one or more differences between the current pose is less than (or within) one or more threshold amount differences (e.g., current rotation and/or current translation of the electronic device (with the threshold rotation and translation of the electronic device's rotation and translation when the capture of ) was initiated), the electronic device is placed in a second position on the media camera user interface (e.g., 3970c in FIG. 39H) with the visual display a first portion of the indication (e.g., 3970b in FIG. 39H) (e.g., the first one or more shapes); The above shapes) and a second portion of the visual indication (eg, a second set of one or more shapes) overlap each other (eg, one portion is overlaid on top of another portion). In some embodiments, at least one of the first portion of the visual indication and the second portion of the visual indication overlap or overlap each other when the first portion and the second portion overlap each other. , is translucent. In some embodiments, determining that one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are not within one or more threshold difference amounts. Accordingly, the electronic device displays a second portion of the visual indication at a location on the media camera user interface different from the first location, the first portion of the visual indication and the second portion of the visual indication. do not overlap each other.

いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間において、電子デバイスは、電子デバイスの移動を検出する(例えば、電子デバイスのポーズ(例えば、位置又は向き)の変化を検出する)。いくつかの実施形態では、メディアのキャプチャを開始した後の第1の時間は、メディアのキャプチャを開始した後の第6の時間の前である。いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間における電子の移動を検出したことに応じて、かつ電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値(例えば、非ゼロ移動閾値(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量(例えば、1つ以上の非ゼロ閾値距離量)内(又は未満)である))を上回らないとの判定に従って、視覚インジケーションの表示を停止する(例えば、図39Iで視覚ガイダンスがない)(例えば、視覚インジケーションの表示をフェードアウトする(例えば、非ゼロ期間にわたって視覚インジケーションを漸進的にフェードアウトする(例えば、その視覚プロミネンスを漸進的に減少させる))。いくつかの実施形態では、電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値を上回らないとの判定に従って、電子デバイスは、視覚インジケーションを表示し続ける(又は視覚インジケーションの表示をフェードアウトしない)。いくつかの実施形態では、電子デバイスが戻る(又はその元のポーズの閾値距離以内にある)と、電子デバイスは、視覚インジケーションを表示することを停止する。所定の条件が満たされているときに、視覚ガイダンスを表示することを停止することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、いつ電子デバイスがその元の位置に戻ったかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに、視覚ガイダンスの表示をフェードアウトすることにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、いつ電子デバイスがその元の位置に戻ったかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚ガイダンスの表示をフェードアウトすることにより、キャプチャされたメディアの表示を妨げることがある表示デバイス上の不必要なユーザインタフェース要素を表示することなく、キャプチャされたメディアに関して明確なフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, at a seventh time after beginning media capture, the electronic device detects movement of the electronic device (e.g., detects a change in pose (e.g., position or orientation) of the electronic device). do). In some embodiments, the first time after starting to capture media is before the sixth time after starting to capture media. In some embodiments, in response to detecting movement of electrons at a seventh time after initiating media capture, and at a seventh time after initiating media capture of the electronic device. If the resulting movement exceeds a second movement threshold (e.g., a non-zero movement threshold (e.g., a difference of one or more between the pose of the electronic device when media capture was initiated and the current pose of the electronic device more threshold difference amounts (e.g., within (or less than) one or more non-zero threshold distance amounts)), stop displaying the visual indication (e.g., visual no guidance) (e.g., fading out the display of a visual indication (e.g., gradually fading out a visual indication over a non-zero period (e.g., gradually decreasing its visual prominence)). In an aspect, the electronic device continues to display the visual indication (or do not fade out the display of the visual indication.) In some embodiments, when the electronic device returns (or is within a threshold distance of its original pose), the electronic device stops displaying the visual indication. By ceasing to display visual guidance when predetermined conditions are met, the user can cause visual distraction without wasting battery life and in situations where visual guidance is less useful. It can quickly recognize when the electronic device has returned to its original position (e.g., by providing visual guidance when these conditions are not met) without further user input. Improve device usability by performing optimized actions when a set of conditions are met without requiring (e.g., appropriate input when manipulating/interacting with the device) by making the user-device interface more efficient (by helping users to provide Reduce power usage and improve device battery life by fading the display of visual guidance when certain conditions are met. By doing so, the user can avoid wasting battery life and causing visual distraction in situations where visual guidance is less useful (e.g., providing visual guidance when these conditions are not met). ), it is possible to quickly recognize when the electronic device has returned to its original position. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. Captured media without displaying unnecessary user interface elements on the display device that may interfere with the display of captured media by fading out the display of visual guidance when certain conditions are met Provide users with clear feedback about media. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、メディアのキャプチャを開始した後の第7の時間における電子デバイスの移動を検出したことに応じて、かつ電子デバイスのメディアのキャプチャを開始した後の第7の時間における検出された移動が第2の移動閾値(例えば、非ゼロ移動閾値(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差が1つ以上の閾値差量(例えば、1つ以上の非ゼロ閾値距離量)内ではない(又は未満ではない)))を上回るとの判定に従って、視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c))の表示を継続する(例えば、表示を維持する)(例えば、視覚インジケーションの表示をフェードアウトしない)。いくつかの実施形態では、電子デバイスが戻らない(又はその元のポーズの閾値距離以内にない)と、電子デバイスは、視覚インジケーションを表示し続ける。 In some embodiments, in response to detecting movement of the electronic device at a seventh time after initiating media capture and detecting at a seventh time after initiating media capture of the electronic device If the resulting movement exceeds a second movement threshold (e.g., a non-zero movement threshold (e.g., one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device is 1 not within (or not less than) one or more threshold difference amounts (e.g., one or more non-zero threshold distance amounts))), according to a visual indication (e.g., visual guidance (e.g., 3970b, 3970c)) continue to display (eg, maintain display) (eg, do not fade out display of visual indication). In some embodiments, if the electronic device does not return (or is not within the threshold distance of its original pose), the electronic device continues to display the visual indication.

いくつかの実施形態では、1組のガイダンス基準は、低光モードがアクティブである(例えば、602cによって示される)ときに(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されている場合に)満たされる基準を含む。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むときに満たされる。いくつかの実施形態では、電子デバイスの検出された移動が移動閾値を上回り、かつ低光モードがアクティブでない場合、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示をやめる。 In some embodiments, the set of guidance criteria is determined when the low light mode is active (eg, indicated by 602c) (eg, when at least one of the one or more cameras is in a low light environment and media contains criteria that are satisfied when configured to capture . In some embodiments, the low light camera mode is active when low light conditions are met. In some embodiments, the low light condition provides a low light condition indicator that indicates that the electronic device is operating in a low light mode when ambient light within the field of view of one or more cameras is below respective thresholds. When the user selects (e.g., turns on), low light conditions are met when the user turns on or activates a setting that activates the low light camera mode, including conditions that are met. In some embodiments, if the detected movement of the electronic device is above the movement threshold and the low light mode is not active, the electronic device communicates, via the display device, the position of the electronic device when media capture was initiated. and the current pose of the electronic device.

いくつかの実施形態では、1組のガイダンス基準は、電子デバイスが閾値持続時間(例えば、0.1、0.25、0.5、1、2、3、5、8、10、15、20、30、60秒)を上回るキャプチャ持続時間(例えば、図39Aでは5秒に対して、図39Nでは2秒)にわたって複数の画像をキャプチャするように構成されているときに満たされる基準を含む。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスをインジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)に構成させる。いくつかの実施形態では、閾値持続時間は、非ゼロ持続時間である。所定の条件が満たされているときに、視覚ガイダンスを提供することにより、ユーザは、バッテリ寿命を無駄にすることなく、かつ視覚ガイダンスがそれほど有用でない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、キャプチャ持続時間が閾値キャプチャ持続時間を上回る場合、いつ電子デバイスがその元の位置から動いたかを、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされたときに視覚ガイダンスを提供することにより、1つ以上の差の視覚インジケーションが表示されたときに、改善された視覚的フィードバックをユーザ提供し、キャプチャされているメディアの表現を妨げることがある追加のユーザインタフェース要素を提供することを回避し、1つ以上の差の視覚インジケーションの表示が必要でないときに、キャプチャされたメディアを不必要に雑然とさせることを回避する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the set of guidance criteria is such that the electronic device reaches a threshold duration (eg, 0.1, 0.25, 0.5, 1, 2, 3, 5, 8, 10, 15, 20 , 30, 60 seconds) or more (e.g., 5 seconds in FIG. 39A versus 2 seconds in FIG. 39N). In some embodiments, the control (eg, slider) for adjusting the capture duration for capturing media includes a first capture duration indication (eg, slider bar). A control causes the electronic device to be configured for a duration corresponding to the duration of the indication (eg, the first capture duration). In some embodiments the threshold duration is a non-zero duration. By providing visual guidance when predetermined conditions are met, users can avoid wasting battery life and causing visual distraction in situations where visual guidance is less useful (e.g., By providing visual guidance when these conditions are not met, it is possible to quickly recognize when an electronic device has moved from its original position if the capture duration exceeds the threshold capture duration. can. Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. Providing improved visual feedback to the user when one or more visual indications of difference are displayed, by providing visual guidance when predetermined conditions are met, and viewing media being captured; Avoid providing additional user interface elements that may interfere with presentation and avoid unnecessarily cluttering the captured media when display of one or more difference visual indications is not required. do. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、視覚インジケーション(例えば、視覚ガイダンス(例えば、3970b、3970c))は、1つ以上のカメラの視野の表現(例えば、630)上に(例えば、その上に、その上に重ね合わせて)表示される。いくつかの実施形態では、視覚インジケーション(例えば、視覚インジケーションの一部分又は視覚インジケーション全体)は、1つ以上のカメラの視野の表現の上に重ね合わされる。1つ以上のカメラの視野の表現上に視覚ガイダンスを表示することにより、電子デバイスによってキャプチャされている情報(例えば、対象又はシーン)からの注意散漫を最小限に抑えながら、電子デバイスのポーズをどのように補正するかに関する情報を提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。1つ以上のカメラの視野の表現上に視覚インジケーションを同時に表示することにより、視覚インジケーション及び1つ以上のカメラの視野の表現の両方に関する視覚的フィードバックをユーザに提供し、これにより、メディアを見ている間に、キャプチャされたメディアの改善を可能にすることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the visual indication (e.g., visual guidance (e.g., 3970b, 3970c)) is provided over (e.g., over) one or more of the camera's field of view representations (e.g., 630). ) is displayed. In some embodiments, a visual indication (eg, a portion of the visual indication or the entire visual indication) is superimposed over representations of one or more cameras' fields of view. By displaying visual guidance over a representation of one or more cameras' fields of view, pose the electronic device while minimizing distraction from the information (e.g., object or scene) being captured by the electronic device. Provide information on how to correct. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved. By simultaneously displaying the visual indications on one or more camera's representations of the field of view, the user is provided with visual feedback regarding both the visual indication and the one or more camera's representations of the field of view, thereby providing media can allow refinement of the captured media while viewing the . By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアをキャプチャする要求を受信したことに応じてメディアキャプチャインタフェースを表示又は更新した)後の(例えば、第1の時間の前、後、又は第1の時間と同じ)第8の時間において、電子デバイスは、電子デバイスの移動を検出する(例えば、電子デバイスの位置及び/又は向きの変化を検出する)。いくつかの実施形態では、電子デバイスが、表示デバイスを介して、表現を含むメディアキャプチャユーザインタフェースを表示している間に、電子デバイスの移動が検出される。いくつかの実施形態では、メディアのキャプチャを開始した後の第8の時間における電子デバイスの移動を検出したことに応じて、かつ電子デバイスの検出された移動が第2の移動閾値(例えば、検出された移動がガイダンス基準(例えば、移動の値又は大きさに基づく閾値、現在のポーズと元のポーズとの間の移動のパーセンテージに基づく閾値(例えば、10%、15%、18%差)、非ゼロ移動閾値)を満たす、移動閾値よりも大きい移動閾値)を上回るとの判定に従って、電子デバイスは、メディアのキャプチャを停止する(例えば、止める)(例えば、例えば図18R~図18Sに関連して説明したように)。いくつかの実施形態では、電子デバイスの検出された移動が第2の移動閾値を上回るとの判定に従って、かつメディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションが表示されている間に、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションの表示を停止する。 In some embodiments, media capture is initiated via one or more cameras (e.g., media capture is initiated, one or more cameras are initialized, a request to capture media is received At an eighth time (e.g., before, after, or the same as the first time) after displaying or updating the media capture interface accordingly, the electronic device causes movement of the electronic device to occur. Detect (eg, detect changes in the position and/or orientation of the electronic device). In some embodiments, movement of the electronic device is detected while the electronic device is displaying a media capture user interface including the representation via the display device. In some embodiments, in response to detecting movement of the electronic device at an eighth time after initiating media capture, and the detected movement of the electronic device exceeds a second movement threshold (e.g., detection Thresholds based on guidance criteria (e.g., threshold based on value or magnitude of movement, threshold based on percentage of movement between current and original poses (e.g., 10%, 15%, 18% difference); Upon determining that a non-zero movement threshold) is met or a movement threshold greater than the movement threshold is exceeded, the electronic device stops (eg, stops) capturing media (eg, with reference to FIGS. 18R-18S). (as explained in ). In some embodiments, the pose of the electronic device when the media capture is initiated and the current pose of the electronic device according to the determination that the detected movement of the electronic device is above the second movement threshold. While the visual indication of the one or more differences between is displayed, the electronic device communicates, via the display device, the pose of the electronic device when media capture began and the current pose of the electronic device. stop displaying the visual indication of one or more differences between

方法4000に関して上述された処理(例えば、図40A~図40C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、及び4200は、方法4000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700及び2800は、任意選択的に、方法4000に関連して上述したように、メディアキャプチャ技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 40A-40C) described above with respect to method 4000 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, and 4200 are described above with reference to method 4000. Optionally includes one or more of the characteristics of various methods. For example, methods 2700 and 2800 optionally employ media capture techniques, as described above with respect to method 4000. For the sake of brevity, these details are not repeated below.

図41A~図41Fは、1組の条件に基づいてメディアキャプチャモードを自動的に管理するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図42A~図42Bにおける処理を含む、以下で説明する処理を例示するために使用される。 41A-41F illustrate exemplary user interfaces for automatically managing media capture modes based on a set of conditions. The user interfaces in these figures are used to illustrate the processes described below, including the processes in Figures 42A-42B.

図41Aは、ライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。カメラユーザインタフェースは、図41Aでデバイス600の上部からデバイス600の底部まで延びる。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサ(例えば、デバイスの同じ側の異なる複数のカメラセンサ)を使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。 FIG. 41A shows electronic device 600 displaying a camera user interface including live preview 630 . The camera user interface extends from the top of device 600 to the bottom of device 600 in FIG. 41A. Live preview 630 is a representation of the FOV based on images detected by one or more camera sensors (eg, and/or cameras). In some embodiments, live preview 630 is only a portion of the screen that does not extend to the top and/or bottom of device 600 . In some embodiments, the device 600 captures images using multiple camera sensors (e.g., different camera sensors on the same side of the device) and combines them into a live preview 630 (e.g., a live preview). 630 different parts). In some embodiments, device 600 captures images using a single camera sensor and displays live preview 630 .

図41Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ね合わされる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ね合わされない。 The camera user interface of FIG. 41A includes indicator region 602 and control region 606, which are overlaid on live preview 630 so that the indicators and controls can be displayed simultaneously with live preview 630. FIG. Camera display area 604 is located between indicator area 602 and control area 606 . Camera display area 604 does not substantially overlap with indicators or controls.

図41Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。図41Aでは、(例えば、図31Fで)上述したものと同様の技術を使用して、ライブプレビュー630が2×ズームレベルで表示されていることを示す、2×ズームアフォーダンス2622cが選択されている。図41Aのいくつかの実施形態では、デバイス600は、(例えば、図31Fに関連して)上述したように、望遠写真カメラ3180c(図示せず)を使用して、ライブプレビュー630の一部分(例えば、カメラディスプレイ領域604内のライブプレビュー630)を表示し、広角カメラ3180bを使用して、ライブプレビュー630の別の部分(例えば、インジケータ領域602及びコントロール領域606内のライブプレビュー630)を表示する。 As shown in FIG. 41A, camera display area 604 includes live preview 630 and zoom affordance 2622, which includes 0.5× zoom affordance 2622a, 1× zoom affordance 2622b, and 2× zoom affordance 2622c. . In FIG. 41A, 2× zoom affordance 2622c is selected, indicating that live preview 630 is being displayed at a 2× zoom level using techniques similar to those described above (eg, in FIG. 31F). . In some embodiments of FIG. 41A, the device 600 uses a telephoto camera 3180c (not shown) as described above (eg, in connection with FIG. 31F) to use a portion of the live preview 630 (eg, , live preview 630 in camera display area 604), and wide-angle camera 3180b is used to display another portion of live preview 630 (eg, live preview 630 in indicator area 602 and control area 606).

図41Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応じて、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。図41Aに示すように、フラッシュインジケータ602aは、現在、非アクティブ状態で表示されている。 As shown in FIG. 41A, indicator region 602 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Indicator area 602 includes flash status indicator 602a. Flash status indicator 602a indicates whether the flash mode (e.g., the mode that controls flash operation upon request to capture media) is in automatic mode, on, off, or another mode (e.g., red-eye reduction mode). indicate. As shown in FIG. 41A, flash indicator 602a is currently displayed in an inactive state.

図41Aに示すように、インジケータ領域602はまた、(例えば、図26Hで)上述したものと同様の技術を使用して、低光モード状態インジケーション602cを含む。例えば、デバイス600が低光環境で動作しており、フラッシュモードが非アクティブであるため、低光モード状態インジケータ602cは、アクティブ状態で表示される。ここで、0.5ルクスのFOV内の光量が閾値を下回る(例えば、20ルクス未満)ため、デバイス600は、低光環境で動作している。低光モード状態インジケータ602cはまた、5秒のキャプチャ持続時間(例えば、低光モード状態インジケータ602c内に表示された「5秒」)と共に表示される。低光モード状態インジケータ602cがアクティブであり、かつ5秒のキャプチャ持続時間と共に表示されている間に、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用してメディアをキャプチャすることができる。この実施例では、低光モード状態インジケータ602cはまた、(図41Bに関連して以下に更に説明するように)デバイス600が「Photo」モードで動作しているため、表示される。 As shown in FIG. 41A, indicator region 602 also includes low light mode status indication 602c using techniques similar to those described above (eg, in FIG. 26H). For example, low light mode status indicator 602c is displayed in an active state because device 600 is operating in a low light environment and flash mode is inactive. Here, the device 600 is operating in a low light environment because the amount of light within the 0.5 lux FOV is below the threshold (eg, less than 20 lux). Low light mode status indicator 602c is also displayed with a capture duration of 5 seconds (eg, "5 seconds" displayed within low light mode status indicator 602c). While low light mode status indicator 602c is active and displayed with a capture duration of 5 seconds, device 600 may 39Q) can be used to capture media using techniques similar to those described above. In this example, low light mode status indicator 602c is also displayed because device 600 is operating in "Photo" mode (as described further below in connection with FIG. 41B).

いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b、602d~602f)もまた、インジケータ領域602に含まれる。 Other indicators (eg, indicators 602b, 602d-602f) are also included in indicator region 602 in some embodiments.

41Aに示すように、コントロール領域606は、ライブプレビュー630上に重ね合わされ、任意選択的に、着色された(例えば、灰色、半透明)オーバーレイを含む。コントロール領域606は、(例えば、図35Aで)上述したように、カメラモードアフォーダンス620を含む。カメラモードアフォーダンス620a~620d及び620fが表示され、「Photo」カメラモードは、テキストを太字にすること、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることによって、カメラが動作している現在のモードであるとして示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイス600は、少なくともその特定のカメラモードのカメラ設定を使用して、メディアをキャプチャするように構成される。 As shown at 41A, control area 606 is overlaid on live preview 630 and optionally includes a colored (eg, gray, translucent) overlay. Control area 606 includes camera mode affordances 620, as described above (eg, in FIG. 35A). Camera mode affordances 620 a - 620 d and 620 f are displayed, and the “Photo” camera mode operates the camera by bolding text and/or centering photo camera mode affordance 620 c in the center of control area 606 . is the current mode. When a camera mode is currently selected (or the electronic device is operating in camera mode), electronic device 600 is configured to capture media using at least the camera settings for that particular camera mode. be.

41Aに示すように、コントロール領域606はまた、メディアコレクション624、シャッターアフォーダンス610、カメラスイッチャアフォーダンス612などの複数のコントロールも含む。図41Aでは、デバイス600が「Photo」モードで動作しているため、シャッターアフォーダンス610は、有効状態で表示される。いくつかの実施形態では、「Photo」モードで動作している間に、シャッターアフォーダンス610は、デバイス600が2×ズームレベルでライブプレビュー630を表示しているかどうかにかからわず、有効状態で表示される。いくつかの実施形態では、シャッターアフォーダンス610が有効状態にある間に(例えば、タップジェスチャ4150a1を介して)選択されると、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用して、メディアのキャプチャを開始する。いくつかの実施形態では、タップジェスチャ4150a1に応じて、デバイス600は、5秒のキャプチャ持続時間にわたって複数の画像のキャプチャを開始する。いくつかの実施形態では、複数の画像のキャプチャを開始した後に、デバイス600は、キャプチャされた画像の少なくとも一部のコンテンツを含む合成画像を生成し(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qに関連して上述したように)、合成画像は、複数の画像のうちの1つ以上よりも視覚的に明るい。 As shown at 41A, control area 606 also includes a number of controls such as media collection 624, shutter affordance 610, camera switcher affordance 612, and the like. In FIG. 41A, shutter affordance 610 is displayed in an enabled state because device 600 is operating in "Photo" mode. In some embodiments, while operating in "Photo" mode, shutter affordance 610 is enabled regardless of whether device 600 is displaying live preview 630 at a 2x zoom level. Is displayed. In some embodiments, when shutter affordance 610 is selected (eg, via tap gesture 4150a1) while in the enabled state, device 600 (eg, FIGS. 18J-18U, FIGS. 26J-26S) , and FIGS. 39A-39Q), media capture begins using techniques similar to those described above. In some embodiments, in response to tap gesture 4150a1, device 600 begins capturing multiple images for a five second capture duration. In some embodiments, after initiating the capture of multiple images, device 600 generates a composite image that includes the contents of at least some of the captured images (eg, FIGS. 18J-18U, 26J- 26S and described above in connection with FIGS. 39A-39Q), the composite image is visually brighter than one or more of the multiple images.

図41Aでは、デバイス600は、ポートレートカメラモードアフォーダンス620dに対応する位置でのタップジェスチャ4150a2を検出する。 In FIG. 41A, device 600 detects tap gesture 4150a2 at a location corresponding to portrait camera mode affordance 620d.

図41Bに示すように、タップジェスチャ4150a2を検出したことに応じて、デバイス600は、(例えば、図8A~図8U及び図35A~図35Iに関連して)上述したものと同様の技術を使用して、ポートレートカメラモードでメディアをキャプチャするように構成される。この新たな構成を示すために、デバイス600は、カメラアフォーダンス620を左にスライドして、それにより、ポートレートモードアフォーダンス620dが中心に置かれて選択され(例えば、太字にされる)、かつ写真カメラモードアフォーダンス620cが選択されず(例えば、太字にされない)、ポートレートモードアフォーダンス620dの左になる。 As shown in FIG. 41B, in response to detecting tap gesture 4150a2, device 600 uses techniques similar to those described above (eg, in connection with FIGS. 8A-8U and 35A-35I). to capture media in portrait camera mode. To illustrate this new configuration, device 600 slides camera affordance 620 to the left so that portrait mode affordance 620d is centered and selected (e.g., bolded) and photo Camera mode affordance 620c is not selected (eg, not bolded) to the left of portrait mode affordance 620d.

図41Bに示すように、ライブプレビュー630のズームレベルは、2×ズームレベルで表示されたままであり、タップジェスチャ4150a2を検出したことに応じて変化しない。したがって、いくつかの実施形態では、デバイス600は、望遠写真カメラ3180cを使用し続けて、ライブプレビュー630の一部分(例えば、カメラディスプレイ領域604内のライブプレビュー630)を表示し、広角カメラ3180bを使用し続けて、ライブプレビュー630の別の部分(例えば、インジケータ領域602及びコントロール領域606内のライブプレビュー630)を表示する。 As shown in FIG. 41B, the zoom level of live preview 630 remains displayed at the 2× zoom level and does not change in response to detecting tap gesture 4150a2. Thus, in some embodiments, device 600 continues to use telephoto camera 3180c to display a portion of live preview 630 (eg, live preview 630 in camera display area 604) and wide-angle camera 3180b. continue to display another portion of live preview 630 (eg, live preview 630 in indicator area 602 and control area 606).

図41Bに示すように、デバイス600は、シャッターアフォーダンス610を無効化し、シャッターアフォーダンス610は、図41Aのシャッターアフォーダンス610の有効化されたバージョンと比較したときに、図41Bで暗くされている。いくつかの実施形態では、シャッターアフォーダンス610が無効状態にある間に(例えば、タップジェスチャ4150b1を介して)選択されると、デバイス600は、メディアのキャプチャを開始しない。 As shown in FIG. 41B, device 600 disables shutter affordance 610, which is darkened in FIG. 41B when compared to the enabled version of shutter affordance 610 of FIG. 41A. In some embodiments, when shutter affordance 610 is selected (eg, via tap gesture 4150b1) while in the disabled state, device 600 does not initiate media capture.

ここで、デバイス600は、その現在の状態で、例えば、暗い又はぼけた画像をキャプチャすることを回避するために、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきではないと判定されるときに、シャッターアフォーダンス610を無効化する。図41Bでは、デバイス600が望遠写真カメラ3180cを使用してカメラディスプレイ領域604内に表示されたライブプレビュー630の一部分をキャプチャするように現在構成されているため、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきではないと判定される。この実施例では、デバイス600は、カメラディスプレイ領域604内に表示されたライブプレビュー630を表すポートレートメディアをキャプチャするために望遠写真カメラ3180cが使用されているときに、低光モードを介して正確な深度情報をキャプチャするように構成されていない深度センサを含む。したがって、図41Bでは、デバイス600は、デバイス600がこの現在の状態(例えば、2×ズームレベルでの低光環境)である間に、低光メディアのキャプチャを無効化する(例えば、図41Bの無効化されたシャッターアフォーダンス610)。 Here, the device 600 in its current state should not be configured such that the device 600 captures media via a low light mode, e.g., to avoid capturing dark or blurry images. When it is determined that there is no shutter affordance 610 is disabled. In FIG. 41B, device 600 is currently configured to capture a portion of live preview 630 displayed within camera display area 604 using telephoto camera 3180c, so device 600 is shown through low-light mode. It is determined that it should not be configured to capture media. In this example, device 600 accurately captures portrait media through low light mode when telephoto camera 3180 c is used to capture portrait media representing live preview 630 displayed within camera display area 604 . including depth sensors that are not configured to capture such depth information. Thus, in FIG. 41B, device 600 disables low light media capture (e.g., Disabled Shutter Affordance 610).

いくつかの実施形態では、他の理由のために低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。例えば、いくつかの実施形態では、深度センサは、望遠写真カメラ3180cが使用されているときに正確な深度情報をキャプチャするように構成することができ、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきであると判定される。いくつかの実施形態では、デバイスがメディアをキャプチャするために現在使用している1つ以上のカメラが、デバイスがメディアをキャプチャするために使用するように構成され得る1つ以上のカメラよりも劣るメディアキャプチャ性能を有するため、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。いくつかの実施形態では、特定のタイプのカメラ(例えば、望遠写真、広角、超広角)を使用している間に、かつ、いくつかの実施形態では、それぞれの対応するシナリオに対する1つ以上の深度センサの性能に基づいて、特定のズームレベル(例えば、0.5×、1×、2×)で特定の種類の低光メディア(例えば、写真、ポートレート、ビデオメディア)をキャプチャするようにデバイス600が構成されている場合、低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定される。 In some embodiments, it is determined that device 600 should not be configured to capture media via low light mode for other reasons. For example, in some embodiments, the depth sensor can be configured to capture accurate depth information when telephoto camera 3180c is in use, and can be configured to capture media via low light modes. It is determined that the device 600 should be configured at . In some embodiments, the one or more cameras that the device is currently using to capture media are inferior to the one or more cameras that the device may be configured to use to capture media. It is determined that device 600 should not be configured to capture media via low light mode due to its media capture capability. In some embodiments, while using a particular type of camera (e.g., telephoto, wide-angle, ultra-wide-angle), and in some embodiments, one or more for each corresponding scenario. To capture certain types of low-light media (e.g. photos, portraits, video media) at certain zoom levels (e.g. 0.5x, 1x, 2x) based on depth sensor performance If device 600 is configured, it is determined that device 600 should not be configured to capture media via low light mode.

図41Bに示すように、その現在の状態で低光モードを介してメディアをキャプチャするようにデバイス600が構成されるべきではないと判定されたため、デバイス600は、低光ズームアフォーダンス4122及びガイダンス4102を表示する。 As shown in FIG. 41B, it was determined that device 600 should not be configured to capture media via low-light mode in its current state, so device 600 may provide low-light zoom affordance 4122 and guidance 4102. display.

上述したように(例えば、図6R及び図8H)、照明効果コントロール628の表示のためにスペースをあけるために、低光ズームアフォーダンス4122は、ズームアフォーダンス2622が図41Aで表示された位置の左に表示される。低光ズームアフォーダンス4122は、ライブプレビュー630の現在のズームレベルのインジケーション(例えば、2×)、並びに低光モードに関連付けられたインジケーション(例えば、低光ズームアフォーダンス4122内の半月)を含む。図41Bでは、低光モードに関連付けられたインジケーションは、図41Aで以前に表示されていた低光モード状態インジケータ602cの一部分(例えば、半月)に視覚的に似ている。いくつかの実施形態では、低光ズームアフォーダンス4122は、デバイス600が低光モードを介してメディアをキャプチャするために、現在のズームレベルを切り替える必要があることを示す。 As described above (eg, FIGS. 6R and 8H), low-light zoom affordance 4122 is positioned to the left of where zoom affordance 2622 was displayed in FIG. Is displayed. Low-light zoom affordance 4122 includes an indication of the current zoom level of live preview 630 (eg, 2×) as well as an indication associated with the low-light mode (eg, half moon in low-light zoom affordance 4122). In FIG. 41B, the indication associated with low light mode visually resembles a portion (eg, half moon) of low light mode status indicator 602c previously displayed in FIG. 41A. In some embodiments, low light zoom affordance 4122 indicates that device 600 should switch the current zoom level in order to capture media via low light mode.

ガイダンス4102は、「ポートレートモードを使用するためには、ズームアウトする又はフラッシュをオンにしてください」と書かれたテキストである。そのように、ガイダンス4102は、デバイス600がメディアをキャプチャするように構成されるために、デバイス600の現在の状態を変更する必要があることを示す。具体的には、デバイス600は、デバイス600がメディアをキャプチャするように構成されるために、ズームレベルを変更する必要がある、又はフラッシュをオンにする必要があることを示す。 Guidance 4102 is text that reads "Zoom out or turn on flash to use portrait mode." As such, guidance 4102 indicates that the current state of device 600 needs to be changed in order for device 600 to be configured to capture media. Specifically, the device 600 indicates that the zoom level should be changed or the flash should be turned on in order for the device 600 to be configured to capture media.

図41Bに示すように、デバイス600は、低光ズームアフォーダンス4122を表示しているときに、低光モード状態インジケータ602cを表示することを停止する。しかしながら、いくつかの実施形態では、低光モード状態インジケータ602cは、表示され続けるが、無効化されて、デバイス600がその現在の状態で動作している間に(例えば、2×ズームレベルでメディアをキャプチャするために特定の1組のカメラを使用している間に、かつポートレートモードにある間に)、低光モードをオンにすることができないことをユーザに示す。図41Bでは、デバイス600は、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出する。 As shown in FIG. 41B, device 600 stops displaying low light mode status indicator 602c when displaying low light zoom affordance 4122. FIG. However, in some embodiments, low light mode status indicator 602c continues to be displayed, but is disabled to allow media viewing while device 600 is operating in its current state (e.g., at 2x zoom level). , and while in portrait mode) to indicate to the user that low light mode cannot be turned on. 41B, device 600 detects tap gesture 4150b2 at a location corresponding to low-light zoom affordance 4122. In FIG.

図41Cに示すように、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出したことに応じて、デバイス600は、2×ズームレベルから1×ズームレベルにライブプレビュー630のズームレベルを変更する。デバイス600が異なる組のカメラ(例えば、カメラディスプレイ領域604内に表示されたライブプレビュー630の一部分を表示するための広角カメラ3180b、及びインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の一部分を表示するための超広角カメラ3180a)を使用しているため、デバイス600がその現在の状態で低光モードを介してメディアをキャプチャするように構成されるべきであると判定される。この実施例では、デバイス600は、カメラディスプレイ領域604内に表示されたライブプレビュー630を表すポートレートメディアをキャプチャするために広角カメラ3180bが使用されているときに、低光モードを介して正確な深度情報をキャプチャするように構成された深度センサを含み、したがって、デバイス600が低光モードを介してメディアをキャプチャするように構成されるべきであると判定される。 As shown in FIG. 41C, in response to detecting tap gesture 4150b2 at a location corresponding to low-light zoom affordance 4122, device 600 changes the zoom level of live preview 630 from a 2× zoom level to a 1× zoom level. change. Device 600 may use different sets of cameras (e.g., wide-angle camera 3180b to display a portion of live preview 630 displayed in camera display area 604, and a wide-angle camera 3180b to display a portion of live preview 630 displayed in indicator area 602 and control area 606). Using an ultra-wide camera 3180a) for viewing a portion, it is determined that the device 600 should be configured to capture media via low light mode in its current state. In this example, device 600 can accurately capture portrait media through low-light mode when wide-angle camera 3180b is used to capture portrait media representing live preview 630 displayed within camera display area 604. It is determined that device 600 should be configured to capture media via a low light mode, including a depth sensor configured to capture depth information.

図41Cに示すように、この判定のため、デバイス600は、ライブプレビュー630のズームレベルを制御する別個のアフォーダンスを表示する。具体的には、デバイス600は、デバイス600の現在のズームレベルを示すために、低光ズームアフォーダンス4122が以前に表示されていた位置に1×ズームアフォーダンス2622bを表示し、インジケータ領域602内に低光キャプチャインジケータ602cを再表示する。 For this determination, device 600 displays a separate affordance that controls the zoom level of live preview 630, as shown in FIG. 41C. Specifically, device 600 displays 1x zoom affordance 2622b at the location where low-light zoom affordance 4122 was previously displayed and low-light zoom affordance 2622b within indicator region 602 to indicate the current zoom level of device 600. Redisplay light capture indicator 602c.

この判定のため、デバイス600はまた、ガイダンス4102を表示することを停止し、シャッターアフォーダンス610を有効化する。図41Cでは、シャッターアフォーダンス610は、図41Bのものよりも暗くない(かつ図41Aで有したのと同じ視覚外観を有する)。いくつかの実施形態では、シャッターアフォーダンス610が有効状態にある間に(例えば、タップジェスチャ4150c1を介して)選択されると、デバイス600は、(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qで)上述したものと同様の技術を使用して、1×ズームレベルでメディアのキャプチャを開始する。いくつかの実施形態では、低光ズームアフォーダンス4122に対応する位置でのタップジェスチャ4150b2を検出したことに応じて、デバイス600は、調整可能な低光コントロール1804を表示する。図41Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する位置での1つ以上のタップジェスチャ4150c2を検出する。 Due to this determination, device 600 also stops displaying guidance 4102 and enables shutter affordance 610 . In FIG. 41C, the shutter affordance 610 is less dark than in FIG. 41B (and has the same visual appearance as it had in FIG. 41A). In some embodiments, when shutter affordance 610 is selected (eg, via tap gesture 4150c1) while in the enabled state, device 600 (eg, FIGS. 18J-18U, 26J-26S) , and FIGS. 39A-39Q), begin capturing media at the 1× zoom level. In some embodiments, in response to detecting tap gesture 4150b2 at a location corresponding to low-light zoom affordance 4122, device 600 displays adjustable low-light control 1804. In FIG. 41C, device 600 detects one or more tap gestures 4150c2 at locations corresponding to 1× zoom affordance 2622b.

図41Dに示すように、1つ以上のタップジェスチャ4150c2を検出したことに応じて、デバイス600は、2×ズームレベルでライブプレビュー630を再表示する。いくつかの実施形態では、デバイス600は、(例えば、図33A~図33Dで)上述したものと同様の技術を使用して、図41Dの2×ズームレベルでライブプレビュー630を表示する前に、1つ以上のタップジェスチャ4150c2に応じて、他のズームレベルでライブプレビュー630を表示する。 As shown in FIG. 41D, in response to detecting one or more tap gestures 4150c2, device 600 redisplays live preview 630 at a 2× zoom level. In some embodiments, device 600 uses techniques similar to those described above (eg, in FIGS. 33A-33D) before displaying live preview 630 at the 2× zoom level of FIG. 41D. Live preview 630 is displayed at other zoom levels in response to one or more tap gestures 4150c2.

図41Dに示すように、デバイス600が2×ズームレベルでライブプレビュー630を表示している間に、デバイス600が図41Bの状態に戻っていると判定される。したがって、この判定のため、デバイス600は、図41Bに関連して上述したものと同様の技術を使用して、低光ズームアフォーダンス4122及びガイダンス4102を再表示し、シャッターアフォーダンス610を無効化する。図41Dでは、デバイス600は、フラッシュインジケータ602aに対応する位置でのタップジェスチャ4150dを検出する。 As shown in FIG. 41D, while device 600 is displaying live preview 630 at the 2× zoom level, it is determined that device 600 has returned to the state of FIG. 41B. Therefore, for this determination, device 600 redisplays low-light zoom affordance 4122 and guidance 4102 and disables shutter affordance 610 using techniques similar to those described above with respect to FIG. 41B. In FIG. 41D, device 600 detects tap gesture 4150d at a location corresponding to flash indicator 602a.

図41Eに示すように、フラッシュインジケータ602aに対応する位置でのタップジェスチャ4150dを検出したことに応じて、デバイス600は、(例えば、図18Vで)上述したものと同様の技術を使用して、フラッシュモードを有効化し、これにより、低光モードを無効化する。フラッシュモードを有効化することによって、デバイス600の現在の状態は、変更され、ズームレベルが2×にある間、低光モードが無効化されているため、(例えば、シャッターアフォーダンス610が選択されたときに)その現在の状態でメディアをキャプチャするようにデバイス600を構成すると判定される。したがって、この判定のため、デバイス600は、低光ズームアフォーダンス4122を表示することを停止し、2×ズームアフォーダンス2622cを再表示する。 As shown in FIG. 41E, in response to detecting a tap gesture 4150d at a location corresponding to flash indicator 602a, device 600 uses techniques similar to those described above (eg, in FIG. 18V) to: Enable flash mode, thereby disabling low light mode. By activating the flash mode, the current state of the device 600 is changed so that while the zoom level is at 2×, the low light mode is deactivated (e.g. shutter affordance 610 is selected). Sometimes) it is determined to configure the device 600 to capture media in its current state. Therefore, due to this determination, device 600 stops displaying low-light zoom affordance 4122 and redisplays 2x zoom affordance 2622c.

図41Fは、図41Dのジェスチャが受信されなかったシナリオを示す。図41Dでは、デバイス600は、FOV内の光量が変化していることを検出する。 FIG. 41F shows a scenario in which the gesture of FIG. 41D was not received. In FIG. 41D, device 600 detects that the amount of light within the FOV is changing.

図41Fに示すように、FOV内の光量の変化を検出したことに応じて、デバイス600は、FOV内の光量が0.5ルクス(例えば、図41Eの2680d)から25ルクス(例えば、図41Fの2680a)に変化したと判定する。25ルクスが光量の閾値(例えば、20ルクス)を上回るため、デバイス600が低光環境で動作すべきでないと判定される。したがって、デバイス600の現在の状態は、変更され、(例えば、低光モードが無効化されているため)デバイス600がその現在の状態でメディア(例えば、ポートレートメディア)をキャプチャするように構成することができると判定される。また、この判定のため、デバイス600は、低光ズームアフォーダンス4122を表示することを停止し、2×ズームアフォーダンス2622cを再表示する。換言すれば、FOV内の光レベルが閾値レベルを上回る場合、ズームアフォーダンス2622a~2622bは、それらの通常の機能に戻る。いくつかの実施形態では、ポートレートモードで動作している間に、光レベルが閾値レベルを下回って戻ると、デバイス600は、図41B及び図41Dに関連して説明したのと同様のカメラユーザインタフェースを表示する。 As shown in FIG. 41F, in response to detecting a change in the amount of light within the FOV, the device 600 changes the amount of light within the FOV from 0.5 lux (e.g., 2680d in FIG. 41E) to 25 lux (e.g., FIG. 41F). 2680a) of . It is determined that the device 600 should not operate in a low light environment because 25 lux is above the light threshold (eg, 20 lux). Accordingly, the current state of device 600 is changed (e.g., because low light mode is disabled) to configure device 600 to capture media (e.g., portrait media) in its current state. determined to be possible. Also, due to this determination, device 600 stops displaying low-light zoom affordance 4122 and redisplays 2× zoom affordance 2622c. In other words, zoom affordances 2622a-2622b return to their normal function when the light level within the FOV rises above the threshold level. In some embodiments, when the light level returns below the threshold level while operating in portrait mode, the device 600 will trigger a camera user similar to that described with respect to Figures 41B and 41D. Show interface.

図42A~図42Bは、いくつかの実施形態による、メディアをキャプチャしている間にガイダンスを提供するための方法を示すフロー図である。方法4200は、コンピュータシステムで実行される。コンピュータシステムは、1つ以上のカメラを含む。コンピュータシステムは、1つ以上の表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上の入力デバイスと通信している。方法4200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。 42A-42B are flow diagrams illustrating methods for providing guidance while capturing media, according to some embodiments. Method 4200 is executed on a computer system. A computer system includes one or more cameras. A computer system is in communication with one or more display devices (eg, touch-sensitive displays) and one or more input devices. Some acts of method 4200 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

いくつかの実施形態では、コンピュータシステム(例えば、600)は、任意選択的に、ディスプレイ生成構成要素(例えば、表示デバイス)と、かつ1つ以上の入力デバイスと通信(例えば、有線通信、無線通信)している。ディスプレイ生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚出力を提供するように構成されている。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、ディスプレイ生成構成要素は、コンピュータシステムとは別個である。1つ以上の入力デバイスは、ユーザ入力を受け取るタッチ感知面など、入力を受け取るように構成されている。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。したがって、コンピュータシステムは、有線又は無線接続を介して、データ(例えば、画像データ又はビデオデータ)を一体型又は外部のディスプレイ生成構成要素に送信して、(例えば、表示デバイスを使用して)コンテンツを視覚的に生成することができ、1つ以上の入力デバイスからの、有線又は無線接続入力を受信することができる。 In some embodiments, a computer system (eg, 600) optionally communicates (eg, wired communication, wireless communication) with a display generating component (eg, display device) and with one or more input devices. )doing. The display generation component is configured to provide visual output such as display via a CRT display, display via an LED display, or display via image projection. In some embodiments, the display generation component is integrated with the computer system. In some embodiments, the display generation component is separate from the computer system. One or more input devices are configured to receive input, such as a touch-sensitive surface for receiving user input. In some embodiments, one or more input devices are integrated with the computer system. In some embodiments, one or more input devices are separate from the computer system. Accordingly, the computer system transmits data (e.g., image data or video data) via a wired or wireless connection to an integrated or external display generating component to render content (e.g., using a display device). can be visually generated and can receive wired or wirelessly connected input from one or more input devices.

後述するように、方法4200は、メディアをキャプチャしている間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャしている間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。 As discussed below, method 4200 provides an intuitive way to provide guidance while capturing media. This method reduces the user's cognitive burden in providing guidance while capturing media, thereby creating a more efficient human-machine interface. For battery-operated computing devices, it conserves power and extends the time between battery charges by enabling users to manage media faster and more efficiently.

コンピュータシステムは、第1のズームレベル(例えば、図41Bの630、同じく図41Bの4122に表される)(例えば、2×ズームレベル、低光メディアキャプチャモードが有効化されている間にメディアをキャプチャするために最適化されていないズームレベル(例えば、1つ以上の深度センサが最適化されていない))でメディアをキャプチャするためのカメラプレビュー(例えば、630)を有する(例えば、それを表示することを含む)カメラユーザインタフェースを表示する(4202)。カメラユーザインタフェースは、(例えば、カメラプレビューの)ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、4122、2622a~2622c)(例えば、ズームアフォーダンス(例えば、ズームアフォーダンス2622のうちの1つ))を含む。いくつかの実施形態では、カメラプレビューは、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含む。 The computer system selects a first zoom level (e.g., represented at 630 in FIG. 41B, also at 4122 in FIG. 41B) (e.g., 2x zoom level, zooming media while low light media capture mode is enabled). Have a camera preview (e.g. 630) for capturing media at a zoom level that is not optimized for capturing (e.g. one or more depth sensors are not optimized) (e.g. display it display the camera user interface (4202). The camera user interface includes a selectable user interface object (eg, 4122, 2622a-2622c) for changing the zoom level (eg, of the camera preview) (eg, a zoom affordance (eg, one of the zoom affordances 2622) )including. In some embodiments, the camera preview includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level.

コンピュータシステムは、(例えば、第1のズームレベルで(例えば、表示された)メディアをキャプチャするためのカメラプレビューを有する)カメラユーザインタフェースを表示している間に、選択可能ユーザインタフェースオブジェクト(例えば、4122、2622a~2622c)の選択に対応する入力(例えば、4150b2、4150c2)(例えば、タップ入力、ドラッグ入力)を検出する(4204)。 While the computer system is displaying a camera user interface (e.g., having a camera preview for capturing the (e.g., displayed) media at a first zoom level), the selectable user interface object (e.g., 4122, 2622a-2622c) corresponding to the selection (eg, 4150b2, 4150c2) (eg, tap input, drag input) is detected (4204).

選択可能ユーザインタフェースオブジェクトの選択に対応する入力(例えば、タップ入力、ドラッグ入力)を検出したことに応じて(4206)(例えば、かつ第1のモード(例えば、ポートレートモード(例えば、620c)で動作している間に、又はコンピュータシステムが第1のカメラ(例えば、第1のズームレベルでメディアをキャプチャするために使用される)を介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されていない)、かつ利用可能な光(例えば、2680d)(例えば、1つ以上のカメラの視野内の光量(例えば、周辺光))が閾値(例えば、20ルクス、10ルクス、5ルクス、1ルクス)を下回るとの判定に従って(4208)、コンピュータシステムは、(例えば、カメラプレビューの)ズームレベルを第2のズームレベル(例えば、図41Cの630、2622bによっても表される)(例えば、1xズーム、第1のズームレベル(例えば、2×ズーム)とは異なる、又はコンピュータシステムが(例えば、第2のズームレベルでメディアをキャプチャするために使用される)第2のカメラを介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されている)に変更し(4210)、低光キャプチャモードを有効化する(4212)。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)所定の条件が満たされるときにのみ低光キャプチャモードを自動的に有効化することにより、コンピュータシステムのユーザが追加のユーザ入力を提供する必要がある、低光キャプチャモードでメディアをキャプチャするようにコンピュータシステムを自動的に構成する(又は構成しない)ことを可能にする。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 4206 in response to detecting input (e.g., tap input, drag input) corresponding to selection of a selectable user interface object (e.g., and in a first mode (e.g., portrait mode (e.g., 620c) while in operation or while the computer system is configured to capture media via a first camera (e.g., used to capture media at a first zoom level); One or more depth sensors of the computer system are not configured to capture optimized depth data when the computer system is configured to capture media via the first camera sensor ), and the available light (e.g., 2680d) (e.g., the amount of light in the field of view of one or more cameras (e.g., ambient light)) exceeds a threshold (e.g., 20 lux, 10 lux, 5 lux, 1 lux) Following the determination 4208, the computer system changes the zoom level (eg, of the camera preview) to a second zoom level (eg, also represented by 630, 2622b in FIG. 41C) (eg, 1x zoom, 2622b). 1 zoom level (e.g., 2x zoom), or such that the computer system captures media via a second camera (e.g., used to capture media at a second zoom level). , one or more depth sensors of the computer system capture optimized depth data when the computer system is configured to capture media via the first camera sensor. 4210) and enable 4212 low light capture mode (based on available light while the camera preview is displayed at the first zoom level). capture media in a low-light capture mode that requires the user of the computer system to provide additional user input by automatically enabling the low-light capture mode only when predetermined conditions are met; Allows a computer system to automatically configure (or not configure) so as to perform optimized actions when a set of conditions are met without requiring further user input. , improve the usability of the device (e.g., when operating/interacting with the device making the user-device interface more efficient (by assisting the user in providing accurate input and reducing user error), as well as enabling the user to use the device more quickly and efficiently to reduce power usage and improve device battery life.

選択可能ユーザインタフェースオブジェクトの選択に対応する入力(例えば、タップ入力、ドラッグ入力)を検出したことに応じて(4206)(例えば、かつ第1のモード(例えば、ポートレートモード(例えば、630)で動作している間に、又はコンピュータシステムが第1のカメラ(例えば、第1のズームレベルでメディアをキャプチャするために使用される)を介してメディアをキャプチャするように構成されている間に、コンピュータシステムが第1のカメラセンサを介してメディアをキャプチャするように構成されているときに、コンピュータシステムの1つ以上の深度センサは、最適化された深度データをキャプチャするように構成されていない)、かつ利用可能な光(例えば、2680a)が閾値(例えば、20ルクス、10ルクス、5ルクス、1ルクス)を上回るとの判定に従って(4214)、コンピュータシステムは、低光キャプチャモードを有効化することなく、(例えば、カメラプレビューの)ズームレベルを(例えば、第1のズームレベル(例えば、2×ズームレベル)とは異なる第2のズームレベル(例えば、1xズーム)に)変更する(4216)。いくつかの実施形態では、ズームレベルを変更することは、第1のズームレベルとは異なる第2のズームレベルで第1の表現を表示することを含む。 4206 in response to detecting input (e.g., tap input, drag input) corresponding to selection of a selectable user interface object (e.g., and in a first mode (e.g., portrait mode (e.g., 630) while in operation or while the computer system is configured to capture media via a first camera (e.g., used to capture media at a first zoom level); One or more depth sensors of the computer system are not configured to capture optimized depth data when the computer system is configured to capture media via the first camera sensor ), and the available light (e.g., 2680a) is above a threshold (e.g., 20 lux, 10 lux, 5 lux, 1 lux) (4214), the computer system enables the low light capture mode. change 4216 the zoom level (e.g., of the camera preview) (e.g., to a second zoom level (e.g., 1x zoom) that is different from the first zoom level (e.g., 2x zoom level)) without ).In some embodiments, changing the zoom level includes displaying the first representation at a second zoom level that is different than the first zoom level.

いくつかの実施形態では、カメラユーザインタフェースは、メディア(例えば、610)をキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、メディアキャプチャアフォーダンス)を含む(例えば、それを表示することを含む)。いくつかの実施形態では、メディアをキャプチャする選択可能ユーザインタフェースオブジェクトは、現在カメラプレビューと共に表示されている。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、無効化される(例えば、図41Bの610)(例えば、非アクティブ(例えば、非アクティブ状態にある))。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、有効化される(例えば、図41Fの610)(例えば、アクティブ(例えば、アクティブ状態にある))。いくつかの実施形態では、コンピュータシステムは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトの選択に対応する入力を受信する。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクト上のタップに対応する入力を受信したことに応じて、かつ入力が受信されたときに、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが有効化されていたとの判定に従って、コンピュータシステムは、メディアのキャプチャを開始する。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトの選択に対応する入力を受信したことに応じて、かつ入力が受信されたときに、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが無効化されていたとの判定に従って、コンピュータシステムは、メディアのキャプチャの開始をやめる。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが無効化されている(例えば、非アクティブ)(例えば、図41Bの610)との判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、第1の視覚外観(例えば、図41Bの610)(例えば、第1の色、半透明でない、押圧状態)で表示される。いくつかの実施形態では、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトが有効化されている(例えば、アクティブ)(例えば、図41Fの610)との判定に従って、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトは、第1の視覚外観とは異なる第2の視覚外観(例えば、図41Fの610)(例えば、第1の色とは異なる第2の色、半透明、押圧されていない状態)で表示される。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)所定の条件が満たされているときにのみメディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を有効化又は無効化することにより、コンピュータシステムの構成及びコンピュータのカメラの視野内の環境条件に基づいて、システムがメディアのキャプチャを許可する/無効化することを可能にする(かつメディアのキャプチャを実行することができる/できないことをユーザが迅速に認識することを可能にする)。更なるユーザ入力を必要とせずに1組の条件が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。メディアキャプチャアフォーダンスが有効化されているかを又は無効化されているかを反映するように、(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の視覚特性を更新することにより、ユーザがメディアキャプチャアフォーダンスの選択を介して動作を実行するための入力を意図せずに提供することを回避するのを支援する一方で、同時に、コンピュータシステムの構成及びコンピュータシステムのカメラの視野内の環境条件に基づいて、メディアのキャプチャを実行することができる/できないことをユーザが認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加のコントロールによってUIを雑然とさせることなく、コンピュータシステムの追加のコントロールを提供することにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera user interface includes (eg, includes displaying) a selectable user interface object (eg, media capture affordance) for capturing media (eg, 610). In some embodiments, a selectable user interface object that captures media is currently displayed with a camera preview. In some embodiments, the selectable user interface object for capturing media while the camera preview is displayed at the first zoom level and in accordance with determining that available light falls below a threshold includes: Disabled (eg, 610 in FIG. 41B) (eg, inactive (eg, in an inactive state)). In some embodiments, the selectable user interface object for capturing media while the camera preview is displayed at the first zoom level and in accordance with determining that the available light exceeds the threshold includes: Enabled (eg, 610 in FIG. 41F) (eg, active (eg, in active state)). In some embodiments, a computer system receives input corresponding to selection of a selectable user interface object for capturing media. In some embodiments, the selectable for capturing media responds to and when input is received corresponding to a tap on the selectable for capturing media user interface object. Upon determining that the user interface object has been activated, the computer system begins capturing media. In some embodiments, in response to and when input corresponding to selection of a selectable user interface object for capturing media is received, a user selectable for capturing media Upon determining that the interface object has been disabled, the computer system ceases to begin capturing media. In some embodiments, the selection to capture media is made following a determination that the selectable user interface object for capturing media is disabled (eg, inactive) (eg, 610 in FIG. 41B). A possible user interface object is displayed in a first visual appearance (eg, 610 in FIG. 41B) (eg, first color, non-translucent, pressed). In some embodiments, a selectable user interface object for capturing media is enabled (eg, active) (eg, 610 in FIG. 41F) upon determining that the selectable user interface object for capturing media is enabled (eg, 610 in FIG. 41F). The user interface object has a second visual appearance (e.g., 610 in FIG. 41F) different from the first visual appearance (e.g., second color different from first color, translucent, unpressed) is displayed. Enable media capture affordances (e.g. selectable user interface objects) only when certain conditions are met (based on available light while the camera preview is displayed at the first zoom level) or disable to allow the system to allow/disable media capture (and perform media capture) based on the configuration of the computer system and the environmental conditions within the field of view of the computer's camera. allow the user to quickly recognize what they can/cannot do). Improve device usability (e.g., operate/interact with device) by performing optimized actions when a set of conditions are met without requiring further user input making the user-device interface more efficient (by assisting the user in providing appropriate input at times and reducing user error), as well as allowing the user to use the device more quickly and efficiently to reduce power usage and improve device battery life. Media capture affordance (based on available light while the camera preview is displayed at the first zoom level) to reflect whether the media capture affordance is enabled or disabled. for example, by updating the visual properties of selectable user interface objects) to help users avoid inadvertently providing input to perform actions via selection of media capture affordances. at the same time, by allowing users to recognize that media capture can/cannot be performed based on the configuration of the computer system and the environmental conditions within the field of view of the computer system's camera. provide the user with control over By providing additional controls for the computer system without cluttering the UI with additional displayed controls, the usability of the device is enhanced and the user-device interface (e.g. more efficient by helping users make appropriate inputs and reducing user error when interacting, as well as by enabling users to use devices more quickly and efficiently , the device uses less power and improves battery life.

いくつかの実施形態では、カメラユーザインタフェースは、メディア(例えば、610)をキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、メディアキャプチャアフォーダンス)を含む(例えば、それを表示することを含む)。いくつかの実施形態では、メディアをキャプチャする選択可能ユーザインタフェースオブジェクトは、現在カメラプレビューと共に表示されている。いくつかの実施形態では、カメラプレビューが(例えば、第1のズームレベルとは異なる)第2のズームレベル(例えば、図41Cの630)で表示されている間に、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、図41Cの610)は、利用可能な光量が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、有効化される(例えば、アクティブ)(例えば、第2の視覚外観(例えば、第1の色とは異なる第2の色、半透明、押圧されていない状態)で表示される)。 In some embodiments, the camera user interface includes (eg, includes displaying) a selectable user interface object (eg, media capture affordance) for capturing media (eg, 610). In some embodiments, a selectable user interface object that captures media is currently displayed with a camera preview. In some embodiments, the option to capture media while the camera preview is displayed at a second zoom level (eg, 630 in FIG. 41C) (eg, different from the first zoom level) is A possible user interface object (eg, 610 in FIG. 41C) is enabled (eg, regardless of the amount of available light) whether or not the amount of available light (eg, , active) (e.g., displayed in a second visual appearance (e.g., a second color different from the first color, translucent, unpressed)).

いくつかの実施形態では、カメラプレビュー(例えば、41B内の630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、ズームレベルを切り替えるためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、ズームアウトしてください」)を表示する。いくつかの実施形態では、ズームレベルを切り替えるためのガイダンスは、カメラプレビュー上に重ね合わされる。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、コンピュータシステムは、ズームレベルを切り替えるためのガイダンスの表示をやめる。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)ズームレベルを切り替えるためのガイダンスを表示する(又は表示しない)ことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて、メディアのキャプチャを最適化するために行うことができるアクションに関する視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630 in 41B) is displayed at the first zoom level and upon determining that the available light is below the threshold, the computer system zooms Display guidance (e.g., 4102) for switching levels (e.g., "Zoom out to use portrait mode"). In some embodiments, guidance for switching between zoom levels is superimposed on the camera preview. In some embodiments, while the camera preview is being displayed at the first zoom level and upon determining that the available light is above the threshold, the computer system displays guidance to switch zoom levels. stop. Feedback on the current state of the computer system by displaying (or not displaying) guidance for switching between zoom levels (based on available light while the camera preview is displayed at the first zoom level) to the user, and based on the available light while the camera preview is displayed at the first zoom level, provides the user with visual feedback on actions that can be taken to optimize media capture. offer. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、カメラプレビュー(例えば、図41Cの630)が(例えば、第1のズームレベルとは異なる)第2のズームレベルで表示されている間に、コンピュータシステムは、利用可能な光が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、ズームレベルを切り替えるためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、ズームアウトしてください」)の表示をやめる。いくつかの実施形態では、利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、(例えば、ズームアフォーダンスとは別個の)低光モードを有効化するための低光モードアフォーダンス(例えば、ズームレベルのインジケーションを含まない)を表示する。カメラプレビューが第2のズームレベルで表示されているときにズームレベルを切り替えるためのガイダンスを表示しないことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、ユーザがメディアをキャプチャする前に不必要な調整を行うのを支援する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (eg, 630 in FIG. 41C) is being displayed at a second zoom level (eg, different from the first zoom level), the computer system Guidance (e.g., 4102) for switching zoom levels regardless of whether the light (or not) is above the threshold (e.g., regardless of the amount of light available) (e.g., "to use portrait mode Please zoom out.") will stop displaying. In some embodiments, upon determining that available light is below a threshold, the computer system determines a low light mode affordance (e.g., (without zoom level indication). By not displaying guidance to switch zoom levels when the camera preview is displayed at a second zoom level, it provides feedback to the user as to the current state of the computer system and prior to the user capturing media. Help make unnecessary adjustments. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、カメラプレビュー(例えば、630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、コンピュータシステムは、フラッシュモードを有効化する(例えば、アクティブ化する)ためのガイダンス(例えば、4102)(例えば、「ポートレートモードを使用するためには、フラッシュをオンにしてください」)を表示する。いくつかの実施形態では、ズームレベルを切り替えるためのガイダンスは、カメラプレビュー上に重ね合わされる。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、コンピュータシステムは、フラッシュモードをアクティブ化するためのガイダンスの表示をやめる。いくつかの実施形態では、フラッシュモードを有効化するためのガイダンスは、ズームレベルを切り替えるためのガイダンスと同時に表示される。いくつかの実施形態では、フラッシュモード有効化するためのガイダンス及びズームレベルを切り替えるためのガイダンスを含むガイダンス(例えば、「ポートレートモードを使用するためには、ズームアウトする又はフラッシュをオンにしてください」)は、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、表示される。いくつかの実施形態では、カメラプレビューが第1のズームで表示されている間に、フラッシュモードを有効化するためのガイダンスは、利用可能な光量が閾値を上回る(又は上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわらず)、表示されない。(カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて)フラッシュモードを有効化するガイダンスを表示する(又は表示しない)ことにより、コンピュータシステムの現在の状態に関するフィードバックをユーザに提供し、カメラプレビューが第1のズームレベルで表示されている間の利用可能な光に基づいて、メディアのキャプチャを最適化するために行うことができるアクションに関する視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview (e.g., 630) is displayed at the first zoom level and upon determining that the available light is below the threshold, the computer system enables flash mode. display guidance (eg, 4102) to activate (eg, activate) (eg, "Turn on flash to use portrait mode"). In some embodiments, guidance for switching between zoom levels is superimposed on the camera preview. In some embodiments, while the camera preview is displayed at the first zoom level and upon determining that the available light is above the threshold, the computer system provides guidance for activating the flash mode. stop displaying . In some embodiments, the guidance to enable flash mode is displayed concurrently with the guidance to switch zoom levels. In some embodiments, guidance including guidance for enabling flash mode and guidance for switching between zoom levels (e.g., "To use portrait mode, please zoom out or turn on flash ”) is displayed while the camera preview is being displayed at the first zoom level and following a determination that the available light is below the threshold. In some embodiments, while the camera preview is displayed at the first zoom, the guidance for enabling flash mode is related to whether the amount of available light is above (or not above) a threshold. not visible (e.g., regardless of the amount of light available). Feedback on the current state of the computer system by displaying (or not displaying) guidance to enable flash mode (based on available light while the camera preview is displayed at the first zoom level) to the user, and based on the available light while the camera preview is displayed at the first zoom level, provides the user with visual feedback on actions that can be taken to optimize media capture. offer. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも大きい(例えば、第2のズームレベルよりも高い(例えば、2×ズームレベルは、1xズームレベルよりも大きい))。いくつかの実施形態では、第2のズームレベルは、第1のズームレベルよりも大きく、したがって、視野内のオブジェクトの表現は、第2のズームレベルよりも第1のズームレベルで大きく表示される。いくつかの実施形態では、第2のズームレベルは、第1のズームレベルよりも小さく、したがって、視野内のオブジェクトの表現は、第2のズームレベルよりも第1のズームレベルで小さく表示される。 In some embodiments, the first zoom level is greater than the second zoom level (eg, greater than the second zoom level (eg, 2x zoom level is greater than 1x zoom level)). . In some embodiments, the second zoom level is greater than the first zoom level, such that representations of objects within the field of view appear larger at the first zoom level than at the second zoom level. . In some embodiments, the second zoom level is smaller than the first zoom level, such that representations of objects within the field of view appear smaller at the first zoom level than at the second zoom level. .

いくつかの実施形態では、コンピュータシステムは、1つ以上の深度センサ(例えば、1つ以上のカメラの視野に少なくとも部分的に重なり合う視野の深度データ(例えば、情報)をキャプチャするための1つ以上のセンサ)を含む。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、1つ以上の深度センサは、第1の精度での第1のズームレベルにおける1つ以上のカメラの視野に関する深度情報の判定を有効化する。いくつかの実施形態では、カメラプレビューが第2のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、1つ以上の深度センサは、第1の精度よりも高い第2の精度での第2のズームレベルにおける1つ以上のカメラの視野に関する深度情報の判定を有効化する。 In some embodiments, the computer system includes one or more depth sensors (e.g., one or more depth sensors for capturing depth data (e.g., information) of fields of view that at least partially overlap the fields of view of one or more cameras. sensor). In some embodiments, while the camera preview is displayed at the first zoom level and upon determining that the available light falls below the threshold, the one or more depth sensors are adjusted with the first accuracy. enables determination of depth information for the field of view of one or more cameras at a first zoom level of . In some embodiments, while the camera preview is displayed at the second zoom level and upon determining that the available light is below the threshold, the one or more depth sensors are adjusted to the first accuracy. enable determining depth information for the field of view of the one or more cameras at a second zoom level with a second accuracy that is also higher.

いくつかの実施形態では、カメラプレビュー(例えば、630)が第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を下回るとの判定に従って、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、4122)は、低光キャプチャモードに対応する(例えば、低光キャプチャモードに関連付けられた)インジケーション(例えば、低光キャプチャモードに関連付けられたグラフィカルインジケータ、1つ以上の文字)を含む。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、かつ利用可能な光が閾値を上回るとの判定に従って、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含まない。いくつかの実施形態では、低光キャプチャモードに対応するインジケーションは、低光キャプチャモードが有効化されていることを示す。いくつかの実施形態では、カメラプレビューが第1のズームレベルで表示されている間に、利用可能な光が閾値を下回るとの判定に従って、かつフラッシュモードが有効化されているとの判定に従って、低光キャプチャモードに対応するインジケーションは、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト内に表示されることを停止する(任意選択的に、消える)。(カメラプレビューが変更されたズームレベルで表示されている間に、かつ利用可能な低光が閾値を下回るときに)低光モードに対応するインジケーションと共にズームアフォーダンスを表示することにより、低光キャプチャモードの現在の状態に関するフィードバックをユーザに提供し、ユーザがズームアフォーダンスをアクティブ化する場合に、ズームアフォーダンスに関連付けられたどの動作が実行されることになるか(例えば、低光モードが有効化され、ズームレベルが変化する)を示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, the option to change the zoom level while the camera preview (eg, 630) is displayed at the first zoom level and in accordance with the determination that the available light is below the threshold. A possible user interface object (e.g., 4122) is an indication (e.g., a graphical indicator associated with low-light capture mode) corresponding to (e.g., associated with) low-light capture mode (e.g., one or more characters). In some embodiments, the selectable user interface object for changing the zoom level while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is above the threshold is , does not include an indication corresponding to low light capture mode. In some embodiments, an indication corresponding to low light capture mode indicates that low light capture mode is enabled. In some embodiments, while the camera preview is displayed at the first zoom level, upon determining that available light is below a threshold and upon determining that flash mode is enabled, The indication corresponding to low light capture mode ceases to appear (and optionally disappears) within the selectable user interface object for changing zoom levels. Low light capture by displaying zoom affordance along with indication corresponding to low light mode (while camera preview is displayed at modified zoom level and when available low light is below threshold) Provide feedback to the user about the current state of the mode and what actions associated with the zoom affordance will be performed if the user activates the zoom affordance (e.g., if low light mode is activated). , zoom level changes) to the user. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、カメラプレビューが第2のズームレベルで表示されている間に、ズームレベルを変更するための選択可能ユーザインタフェースオブジェクト(例えば、図41Cの2622b)は、利用可能な光量が閾値を上回る(又は、上回らない)かどうかに関係なく(例えば、利用可能な光量にかかわりなく)、低光キャプチャモードに対応するインジケーション(例えば、低光キャプチャモードに関連付けられたグラフィカルインジケータ、1つ以上の文字)を含まない。カメラプレビューが変更されたズームレベルで表示されている間に、低光モードに対応するインジケーションなしにズームアフォーダンスを表示することにより、ズームアフォーダンスの現在の状態に関するフィードバックをユーザに提供し、ユーザがズームアフォーダンスをアクティブ化する場合に、ズームアフォーダンスに関連付けられたどの動作が実行されることになるか(例えば、ズームレベルが変化し、低光モードが有効化されない)を示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が向上し、(例えば、デバイスを操作する/デバイスと対話するときにユーザが適切な入力を行うのを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースがより効率的になり、このことにより更に、ユーザがデバイスをより素早くかつ効率的に使用可能になることによって、デバイスの電力使用量が削減されバッテリ寿命が改善される。 In some embodiments, while the camera preview is displayed at the second zoom level, a selectable user interface object (eg, 2622b in FIG. 41C) for changing the zoom level is displayed when the amount of available light is An indication corresponding to the low-light capture mode (e.g., a graphical indicator associated with the low-light capture mode, 1 characters). Providing feedback to the user on the current state of the zoom affordance by displaying the zoom affordance without any indication corresponding to low light mode while the camera preview is displayed at the modified zoom level, allowing the user to Provide visual feedback to the user indicating what actions associated with the zoom affordance will be performed when activating the zoom affordance (e.g., zoom level changes, low light mode not enabled) offer. By providing improved visual feedback to the user, the usability of the device is enhanced (e.g., assisting the user in providing appropriate input when operating/interacting with the device, User-device interfaces become more efficient (by reducing errors), which in turn reduces device power usage and battery life by enabling users to use devices more quickly and efficiently. is improved.

いくつかの実施形態では、低光キャプチャモードが有効化されている間に、コンピュータシステムは、メディアをキャプチャする要求(例えば、4150c1)(例えば、有効化されたメディアをキャプチャするための選択可能ユーザインタフェースオブジェクト(例えば、610)(例えば、メディアアフォーダンス)上のタップ)を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応じて、コンピュータシステムは、キャプチャ持続時間にわたる複数の画像のキャプチャを開始する。いくつかの実施形態では、キャプチャ持続時間にわたる複数の画像のキャプチャを開始した後に、コンピュータシステムは、複数の画像の少なくとも一部のコンテンツを含む合成画像を生成し(例えば、図18J~図18U、図26J~図26S、及び図39A~図39Qに関連して上述したように)、合成画像は、複数の画像のうちの1つ以上よりも視覚的に明るい。いくつかの実施形態では、合成画像を生成することは、複数の画像の少なくとも一部のコンテンツをマージすることを含む。いくつかの実施形態では、コンピュータシステムは、メディアをキャプチャする要求を受信する。メディアをキャプチャする要求を受信したことに応じて、かつ低光キャプチャモードが有効化されているとの判定に従って、コンピュータシステムは、キャプチャ持続時間にわたって、キャプチャ持続時間にわたってキャプチャされた複数の画像の各画像よりも視覚的に明るい合成画像に組み合わされることになる複数の画像のキャプチャを開始する。メディアをキャプチャする要求を受信したことに応じて、かつ低光キャプチャモードが有効化されていないとの判定に従って、コンピュータシステムは、キャプチャ持続時間にわたってキャプチャされた複数の画像の各画像よりも視覚的に明るい合成画像に複数の画像を組み合わせることなく、キャプチャ持続時間にわたって複数の画像のキャプチャを開始する。いくつかの実施形態では、複数の画像は、異なるキャプチャ持続時間にわたってキャプチャされた異なる画像を含む。 In some embodiments, while the low-light capture mode is enabled, the computer system sends a request to capture media (e.g., 4150c1) (e.g., selectable user to capture media enabled). Receive an interface object (eg, 610) (eg, a tap on a media affordance). In some embodiments, in response to receiving a request to capture media, the computer system initiates capture of multiple images for the capture duration. In some embodiments, after initiating capture of multiple images for the capture duration, the computer system generates a composite image that includes the content of at least a portion of the multiple images (e.g., FIGS. 18J-18U, 26J-26S and 39A-39Q), the composite image is visually brighter than one or more of the multiple images. In some embodiments, generating the composite image includes merging content of at least some of the multiple images. In some embodiments, a computer system receives a request to capture media. In response to receiving a request to capture media and in accordance with determining that the low-light capture mode is enabled, the computer system captures each of the plurality of images captured over the capture duration. Begin capturing multiple images that will be combined into a composite image that is visually brighter than the images. In response to receiving a request to capture media and in accordance with determining that the low-light capture mode is not enabled, the computer system captures more visual than each of the plurality of images captured over the capture duration. Start capturing multiple images over the capture duration without combining the multiple images into a bright composite image. In some embodiments, the plurality of images includes different images captured over different capture durations.

方法4200に関して上述された処理(例えば、図42A~図42B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、3800、及び4000は、方法4200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700及び2800は、任意選択的に、方法4200に関連して上述したように、メディアキャプチャ技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。 Note that details of the processing (eg, FIGS. 42A-42B) described above with respect to method 4200 are also applicable to the methods described above in an analogous manner. For example, methods 700, 900, 1100, 1300, 1500, 1700, 1900, 2100, 2300, 2500, 2700, 2800, 3000, 3200, 3400, 3600, 3800, and 4000 are described above with reference to method 4200. Optionally includes one or more of the characteristics of various methods. For example, methods 2700 and 2800 optionally employ media capture techniques, as described above with respect to method 4200. For the sake of brevity, these details are not repeated below.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The foregoing, for purposes of explanation, has been described with reference to specific embodiments. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise forms disclosed. Many modifications and variations are possible in light of the above teaching. These embodiments were chosen and described in order to best explain the principles of the technology and its practical application. This enables others skilled in the art to best utilize the technology and various embodiments, with various modifications as appropriate for the particular application intended.

添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Having fully described the present disclosure and examples with reference to the accompanying drawings, it should be noted that various changes and modifications will become apparent to those skilled in the art. Such changes and modifications are intended to be included within the scope of this disclosure and examples as defined by the claims.

上述したように、本技術の一態様は、メディアを管理するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。このようなパーソナル情報データとしては、位置ベースデータ、又は任意の他の識別情報若しくはパーソナル情報を挙げることができる。 As noted above, one aspect of the present technology is the collection and use of data available from various sources to manage media. This disclosure indicates that, in some instances, this collected data includes personal information data that uniquely identifies a particular person or that can be used to contact or locate a particular person. I am thinking of getting. Such personal information data may include location-based data, or any other identifying or personal information.

本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、より良くメディア管理できるようにするために使用することができる。したがって、そのような個人情報データの使用により、ユーザは、メディアにより容易にキャプチャ、編集、及びアクセスできる。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。 This disclosure recognizes that the use of such personal information data in the present technology may be a use to the benefit of the user. For example, personal information data can be used to enable better media management. Thus, the use of such personal information data allows users to capture, edit, and access media more easily. Furthermore, other uses for personal information data that benefit users are also contemplated by this disclosure.

本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The present disclosure contemplates that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to robust privacy policies and/or practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or governmental requirements to keep personal data confidential and strictly maintained. and should be used consistently. Such policies should be readily accessible by users and should be updated as data collection and/or use changes. Personal information from users should be collected for the entity's lawful and legitimate use and should not be shared or sold except for those lawful uses. Moreover, such collection/sharing should be done after informing and obtaining consent from the user. In addition, such entities protect and secure access to such Personal Data and ensure that others who have access to that Personal Data comply with their privacy policies and procedures. should consider taking all necessary steps to Further, such entities may themselves be evaluated by third parties to certify their adherence to widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific types of personal information data collected and/or accessed and comply with applicable laws and standards, including jurisdiction-specific considerations. should be adapted. For example, in the United States, the collection or access of certain health data may be governed by federal and/or state laws, such as the Health Insurance Portability and Accountability Act (HIPAA). However, health data in other countries may be subject to other regulations and policies and should be dealt with accordingly. Different privacy practices should therefore be maintained for different types of personal data in each country.

前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ロケーションサービスの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which a user selectively prevents use of or access to personal information data. That is, the present disclosure contemplates that hardware and/or software elements may be provided to prevent or block access to such personal information data. For example, in the case of location services, the technology may be configured to allow users to choose to “opt-in” or “opt-out” of participation in the collection of personal information data during registration for the service or at any time thereafter. In addition to providing "opt-in" and "opt-out" options, this disclosure contemplates providing notice regarding access or use of personal information. For example, the user may be notified upon download of an app that will access the user's personal data, and then reminded again just before the personal data is accessed by the app.

更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risk of unintentional or unauthorized access or use. Risks can be minimized by limiting data collection and deleting data when it is no longer needed. Additionally, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-identification includes, where appropriate, removing certain identifiers (e.g. date of birth, etc.), controlling the amount or specificity of data stored (e.g. location data rather than address level). city level), controlling how data is stored (e.g., aggregating data across users), and/or in other ways.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、キャプチャされ、アクセスされ、及び編集され得る。 Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also covers the use of such personal information data. It is contemplated that it is also possible to implement the various embodiments without requiring access to the . That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data. For example, media may include non-personal data or a minimal amount of personal information, such as content requested by a device associated with a user, other non-personal information available in the Service, or publicly available information. By inferring preferences based solely on quantity, they can be captured, accessed, and edited.

それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアは、ユーザに関連付けられたデバイスにより要求されたコンテンツ、サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、キャプチャされ、アクセスされ、及び編集され得る。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示することと、
を含む、方法。
[項目2]
条件の前記変化を検出したことに応じて、
前記第1及び第2の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンス及び前記第2のコントロールアフォーダンスを同時に表示すること、
を更に含む、項目1に記載の方法。
[項目3]
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないとの判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示することをやめることと、
前記第1の既定の条件が満たされておらず、かつ前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する一方で、前記第1のコントロールアフォーダンスを表示することをやめることと、
を更に含む、項目1又は2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が第1の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが第1のタイプのアクセサリに接続されていると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が第2の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果動作を制御する前記アフォーダンスを表示している間に、前記照明効果動作を制御する前記アフォーダンスの選択を受信することと、
前記照明効果動作を制御する前記アフォーダンスの前記選択を受信したことに応じて、調整されると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
前記第1のコントロールアフォーダンスを表示している間に、同時に、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションを表示すること、
を更に含む、項目1から8のいずれか一項に記載の方法。
[項目10]
前記特性は、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することは、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う、項目9に記載の方法。
[項目11]
前記特性は、第1のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が有効化されていることである、項目9又は10に記載の方法。
[項目12]
前記特性は、第2のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が無効化されていることである、項目9に記載の方法。
[項目13]
前記特性は、画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、静止画像及びビデオをキャプチャするように構成されている、項目9から12のいずれか一項に記載の方法。
[項目14]
前記特性は、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目9から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域は、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションは、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目9から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現は、前記第1のコントロールアフォーダンス及び/又は前記第2のコントロールアフォーダンスを含む前記カメラユーザインタフェースの一部分にわたって延びる、項目1から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応じて、
前記第1のコントロールアフォーダンスが第1のタイプのものであるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの第2の特性がアクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの前記第2の特性が非アクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションの表示をやめることと、
を更に含む、項目1から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目1から17のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、項目1から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目1から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正することであって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、ことと、
を含む、方法。
[項目25]
前記カメラコントロール領域は、前記複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャは、前記複数のカメラ設定アフォーダンスを表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャは、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャは、前記複数のカメラモードアフォーダンスのうちの少なくとも1つ上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上の第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応じて、前記以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応じて、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスは、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応じて、前記第1のアスペクト比を有する前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現に変更する前記要求を受信したことに応じて、前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目30に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現は、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現は、第1のズームレベルで表示され、前記方法は、
前記第1のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応じて、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを上げる要求に対応するとの判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを下げる要求に対応するとの判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、を更に含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応じて、
前記第4のズームレベルが前記第2のズームレベルであるとの判定に従って、前記第3のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが前記第3のズームレベルであるとの判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが前記第1のズームレベルであるとの判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャは、前記グラフィカルインジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の位置に前記複数のカメラ設定アフォーダンスを表示することは、
前記第2のタイプの前記ジェスチャが検出されていた間に、第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出されていた間に、前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に前記第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスは、前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードは、静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスは、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目39]
第1のカメラモードは、ポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスは、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目40]
前記第1のジェスチャは、前記第1のタイプのものであり、前記第1のジェスチャを検出することは、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法は、
前記第1のジェスチャの前記第1の部分を検出したことに応じて、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を囲む別個の1つ以上の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応じて、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って、前記境界部の少なくとも一部分が前記ディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることと、
を更に含む、項目24から39のいずれか一項に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することは、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触は、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させることが行われる速度は、前記第1の方向の前記第2の接触の移動速度に比例する、項目41に記載の方法。
[項目43]
前記境界部を平行移動させることは、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
メディアをキャプチャする前記第2の要求を受信したことに応じて、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目24から44のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正する手段であって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、ことと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応じて、前記視覚コンテンツの第2の表現を表示することであって、前記視覚コンテンツの前記第2の表現は、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、を含む、ことと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現は、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現は、第1の向きの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きの表現である、項目52に記載の方法。
[項目55]
前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記視覚コンテンツの前記第1の表現は、第1のズームレベルの表現であることと、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現であることと、
を更に含む、項目52に記載の方法。
[項目56]
更に、前記視覚コンテンツの前記第1の表現は、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を実行すること、
を更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求は、前記メディアアイテムを表示する第1の要求であり、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、
を更に含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースは、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、こと、
を更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法は、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応じて、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションの表示をやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されているときに満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準は、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないときに満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力は、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法は、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応じて、
追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャし、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないとの判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、
を更に含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目51から64のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持すること、
を含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分を表示することを停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の位置に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記表示デバイス上の前記第1の位置から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の位置に向かって前記キャプチャされたメディアの前記表現を動かすアニメーションを表示すること、
を含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第3の位置に表示され、前記方法は、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分を表示することを停止することと、
を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分を表示することを停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の位置から、前記表示デバイス上の前記第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の位置から、前記表示デバイス上の前記第5の位置への前記接触の移動に対応するユーザ入力を受信したことに応じて、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応じて、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応じて、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第5の位置に表示され、前記方法は、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止した後に、前記第5の位置に複数のカメラ設定を制御するアフォーダンスを表示すること、
を更に含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることは、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することは、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の期間は、画像の前記キャプチャされたシーケンスの持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャされたメディアを共有するためのオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応じて、前記キャプチャされたメディアを共有するためのユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記キャプチャされたメディアを共有するための前記ユーザインタフェースは、前記キャプチャされたメディアを共有するための複数のオプションを含む、項目81に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目71から82のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、ことと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供すること、
を更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応じて、
前記第1の入力の第2の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、メディアをキャプチャする要求に応じてキャプチャされる前記メディアの前記境界部の視覚インジケーションを表示すること、を更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第3の部分を検出したことに応じて、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むとの判定に従って、前記第1の接触が前記閾値時間量にわたって前記第1の位置で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの外観を修正すること、
を更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示すること、
を更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第4の部分を検出したことに応じて、
前記第1の入力の前記第4の部分が前記第1の接触のリフトオフを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示すること、
を更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されず、
前記第2の部分は、前記第1の部分と視覚的に区別される、項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲内にない移動の第2の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定ではなく、かつ移動の前記第2の大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、前記電子デバイスは、第1のカメラモードを使用してメディアをキャプチャするように構成されており、前記方法は、
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含まないとの判定、及び前記第1の入力が第1の移動閾値を上回る前記第1の接触の移動を含むとの判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法は、
前記カメラディスプレイ領域上の第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力を検出することに従って、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示すること、
を更に含む、項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量未満にわたって前記第1の位置で前記第1の接触を検出することを含むとの判定に従って、前記第1の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整すること、
を更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応じて、
前記第1の入力が、メディアをキャプチャする前記要求に応じてキャプチャされる前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって前記第1の接触を維持することを含むとの判定に従って、前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成した後に、前記第3の位置に対応する前記1つ以上のカメラの視野内の前記位置での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させない、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応じて、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目89から102のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの視野の第1の表現を表示することを含み、
前記第1の表現は、前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の第2の表現を表示することを含み、
前記第2の表現は、前記第2のズームレベルで前記第2のカメラの向きで表示される、項目109又は110に記載の方法。
[項目112]
前記第1の向きは、縦向きであり、前記第1の表現は、前記1つ以上のカメラの前記視野の一部分であり、前記第2の向きは、横向きであり、前記第2の表現は、前記1つ以上のカメラの視野全体である、項目111に記載の方法。
[項目113]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第3の表現に置き換えることであって、前記第3の表現は、前記第1のカメラの向きであり、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択は、前記第1のズームレベルを第4のズームレベルに変更する要求に対する、ことと、
前記第2の入力を検出したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第4の表現に置き換えることであって、前記第4の表現は、前記第1のカメラの向きであり、かつ前記第4のズームレベルである、ことと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスは、前記第1のカメラユーザインタフェース及び前記第2のカメラユーザインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第5の表現に置き換えることであって、前記第5の表現は、前記第1のカメラの向きで、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記1つ以上のカメラは、第1のカメラと、前記第1のカメラとは別個の第2のカメラとを含み、
前記1組の自動ズーム基準は、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないときに満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記1組の自動ズーム基準は、前記電子デバイスがビデオキャプチャ動作モードにないときに満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルは、前記第2のズームレベルよりも高く、前記方法は、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応じて、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、
を更に含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目109から120のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
を含む、方法。
[項目128]
前記可変フレームレート基準は、前記1つ以上のカメラの前記視野内の周辺光が閾値を下回るときに満たされる基準を含み、前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法は、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記可変フレームレート基準が満たされていないとの判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持すること、
を更に含む、項目127に記載の方法。
[項目129]
前記可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することは、
前記可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないとの判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度よりも視覚的に明るい第2の輝度で表示される、項目127から130のいずれか一項に記載の方法。
[項目132]
前記第2のフレームレートは、それぞれの閾値を下回る前記1つ以上のカメラの前記視野内の周辺光の量に基づく、項目127から131のいずれか一項に記載の方法。
[項目133]
前記検出された変化は、検出された移動を含み、前記第2のフレームレートは、前記検出された移動の量に基づく、項目127から132のいずれか一項に記載の方法。
[項目134]
前記移動基準は、前記1つ以上のカメラの前記視野内の前記検出された変化が移動閾値よりも大きい前記電子デバイスの移動に対応するときに満たされる基準を含む、項目127から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目127から134のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目127から134のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目127から134のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
手段と、
を備える、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、ことと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールはスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することは、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用してメディアの前記キャプチャを開始するメディアキャプチャアフォーダンスを表示すること、
を含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応じて、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の表現であり、前記方法は、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第2の表現に置き換えることであって、前記第2の表現は、前記第2のキャプチャ持続時間に基づき、かつ前記第1の表現と視覚的に区別される、こと、
を更に含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止すること、
を更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールは、第1の色で表示され、前記方法は、
メディアをキャプチャする前記要求を受信したことに応じて、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示すること、
を更に含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応じて、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを前記第3のキャプチャ値の前記第3のインジケーションに動かす第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間は、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、ことと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすること、
を更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間に基づく前記第2のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第2のメディアの表現を表示することと、
を更に含む、項目155に記載の方法。
[項目157]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を上回るとの判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第3のメディアの表現を表示することと、
を更に含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応じて、メディアをキャプチャするように要求する前記アフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目155から157のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現は、前記第1のメディアの前記第1の表現と視覚的に区別される、ことと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1のメディアの前記第1の表現の表示を前記第1のメディアの前記第2の表現の表示に前記置き換えることは、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法は、
前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第1の選択を受信することと、
前記低光状態キャプチャインジケータの第1の選択を受信したことに応じて、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、
を含む、項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第2の選択を受信することを含み、
前記方法は、
前記低光キャプチャ状態インジケータの前記第2の選択を受信したことに応じて、前記キャプチャ持続時間を調整する前記コントロールを再表示すること、
を含む、項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応じて、フラッシュ動作を実行しないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件は、前記低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目141から164のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ、前記フラッシュ動作がアクティブ又は非アクティブに設定されているかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、かつフラッシュ設定がアクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、かつ前記フラッシュ設定がアクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示す、項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目173に記載の方法。
[項目175]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
前記低光キャプチャモードの前記状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示すること、
を更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるとの判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応じて、
低光キャプチャモードの前記状態が非アクティブであるとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応じて、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの持続時間にわたって前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に前記第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に前記1つ以上のカメラの前記視野から導出された表現を表示することを停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示すること、
を更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態は、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態は、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲内にあるとの判定に従って、前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が利用可能であることを示す、項目171又は172及び174から185のいずれか一項に記載の方法。
[項目187]
前記キャプチャ持続時間を調整する前記コントロールは、前記キャプチャ持続時間を調整する第1のコントロールであり、前記方法は、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの選択を受信したことに応じて、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、
を更に含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定範囲内にあるとの判定に従って、第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないとの判定に従って、前記第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすとの前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態がアクティブであること、及び前記第1のキャプチャ持続時間の第2の視覚表現を含むことを示し、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内であるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含む、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能であることを示す、前記低光キャプチャ状態インジケータとは、互いに視覚的に異なる、
ことを更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目171から189のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
手段と、
を備える、電子デバイス。
[項目196]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、ことと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールは、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することは、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第1の静的部分の表示を維持すること、
を含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータは、自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータは、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、
を含み、
前記複数の編集可能パラメータの現在値を調整することは、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目199に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが、前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応じて、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示し、かつ前記第3のユーザ入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に抑制すること、
を更に含む、項目202に記載の方法。
[項目204]
前記第3のユーザ入力は、前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に受信され、
前記第3のアフォーダンスを表示することは、
前記第4の編集可能パラメータが第1のタイプのパラメータであるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示することをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力は、前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力は、前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディアの前記表現及び前記第1のアフォーダンスを表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するとの判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないとの判定に従って、触知出力を生成することをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調すること、
を更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータは、前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲しており、第4の編集可能パラメータ現在値インジケータは、前記第2のアフォーダンスを視覚的に包囲している、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスは、1つ以上のカメラを含み、
前記視覚メディアの前記表現は、前記1つ又はカメラの視野の表現であり、
前記メディア編集ユーザインタフェースは、前記電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように構成されている間に表示され、
前記第1の編集可能パラメータは、照明効果強度であり、
前記第2の編集可能パラメータは、深度効果強度である、項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータは、照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースは、前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第1の編集可能パラメータの前記調整された現在値に基づいて、前記照明効果パラメータを調整することを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータは、視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
視覚メディアの前記表現の表示を、前記視覚フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えること、
を含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、項目196から212のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、第1のユーザインタフェースを表示することであって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、
ことと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースは、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示すること、
を更に含む、項目220に記載の方法。
[項目222]
前記遠近歪は、水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量は、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪は、垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量は、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現は、第1の実視水平線を含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記第1の表現内の視覚境界部に対する回転度を含んでいる間に、前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出したことに応じて、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記第1の表現を回転させることと、
を更に含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現は、前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含んでいる間に、前記第1の表現の前記第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記第1の視覚コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応じて、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースは、自動調整アフォーダンスを含み、前記方法は、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応じて、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群から選択される前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記調整された2つ以上のパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を更に含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応じて、前記表示デバイス上に、第3のユーザインタフェースを表示することであって、
第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むとの判定に従って、前記自動調整アフォーダンスを表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないとの判定に従って、前記自動調整アフォーダンスを表示することをやめることと、
を含む、ことと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの前記視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現は、第1のアスペクト比で表示され、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を更に含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現は、第1の向きで表示され、
前記第1のアスペクト比は、第1の水平アスペクト比値及び第1の垂直アスペクト比値を有し、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することであって、前記第3のアスペクト比は、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、
を有する、ことと、
を更に含む、項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することは、
前記第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含むとの判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示すること、
を含む、項目219から230のいずれか一項に記載の方法。
[項目232]
視覚境界部は、前記第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、前記第7の表現は、前記第1の視覚メディア内の第1の時間に対応し、
前記方法は、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応じて、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、
を更に含む、項目231に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応じて、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、
を更に含む、項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現は、前記カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールは、遠近歪を補正するコントロールに対応し、
前記方法は、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪の補正量を更新すること、
を更に含む、項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、項目219から235及び399のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、第1のユーザインタフェースを表示する手段であって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスにおいて、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、
1つ以上のカメラの視野の表現を表示することを含む、ことと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、ことと、
を含む、方法。
[項目243]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、
前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャすることと、
前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャすることと、
を更に含む、項目242に記載の方法。
[項目244]
前記第1の複数の画像内の画像の量は、前記第2の複数の画像内の画像の前記量とは異なる、項目243に記載の方法。
[項目245]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第1の複数の画像のうちの少なくとも一部のコンテンツを含む第1の合成画像を生成することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第2の複数の画像のうちの少なくとも一部のコンテンツを含む第2の合成画像を生成することと、
を更に含む、項目243又は244に記載の方法。
[項目246]
前記コントロールが前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応じて、
前記電子デバイスの前記第1の安定度が第1の安定性閾値を上回るとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242から245のいずれか一項に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光カメラモードの状態を示し、かつ、
キャプチャ持続時間表示基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
キャプチャ持続時間表示基準が満たされていないとの判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、
第1の低光キャプチャ状態インジケータを表示すること、
を更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準は、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現を含む、第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ前記第3のキャプチャ持続時間の前記視覚表現を含まない、第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内にあるとの判定に従って、前記低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる、ことと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるとの判定に従って、前記第2の低光キャプチャ状態インジケータ、前記第3の低光キャプチャ状態インジケータ、及び前記第4の低光キャプチャ状態インジケータを表示することをやめることと、
を更に含む、項目242から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールは、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、
に調整可能であるように構成されている、項目242から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値である、
ことを含む、項目250又は251に記載の方法。
[項目253]
前記第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ持続時間値であり、前記方法は、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応じて、
第1の現在の条件が第3のキャプチャ持続時間基準が満たされていることを満たすとの判定に従って、
前記第2の推奨されるキャプチャ持続時間値を、第7のキャプチャ持続時間値であって、前記第5のキャプチャ持続時間値は、前記第7のキャプチャ持続時間値とは異なる、第7のキャプチャ持続時間値に、及び、
前記第3の推奨されるキャプチャ持続時間値を、前記第6のキャプチャ持続時間値とは異なる第8のキャプチャ持続時間値に、
のうちの少なくとも1つに変更することと、
を更に含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準は、
前記1つ以上のカメラの前記視野内で検出された周辺光と、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、
からなる群から選択される1つ以上のパラメータに基づく基準を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法は、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択は、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、ことと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を更に含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第1のインジケーションであり、
前記第1のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置に前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応じて、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を更に含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第2のインジケーションであり、
前記第2のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置に前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
現在の条件の前記第2の変化を検出したことに応じて、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ前記第4の位置に前記第1のインジケーションを表示したことに応じて、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を更に含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、メディアをキャプチャする前記アフォーダンスの視覚外観を変更すること、
を更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示すること、
を更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、かつ前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るとの判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないとの判定に従って、前記1つ以上の低光モードアニメーションを表示することをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現を表示することであって、
前記第1の時間は、前記第2の時間とは異なり、
前記第3の合成画像の前記表現は、前記第4の合成画像の前記表現と視覚的に区別される、
ことと、
を更に含む、項目242から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目242から262のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目242から262のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、項目242から262のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、
1つ以上のカメラの視野の表現を表示することを含む、
手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、手段と、
を備える、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションは、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、第2の位置に表示される、第2の1組の1つ以上の形状と、
を含む、形状の組を含む、項目269又は270に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状は、第1の色を含み、
前記第2の1組の1つ以上の形状は、前記第1の色とは異なる第2の色を含む、項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、前記メディアキャプチャユーザインタフェース上の前記第2の位置とは異なる前記メディアキャプチャユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記第1の1組の1つ以上の形状の前記第1の位置と前記第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にあるとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つの表示をやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、前記第2の閾値差内にないとの判定に従って、前記触知出力を生成することをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているとの判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示すること、
を更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示することをやめること、
を更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションは、前記第1の時間に表示され、前記方法は、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応じて、前記表示デバイスを介して、前記視覚インジケーションを表示することをやめることと、
を更に含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、項目269から278のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、
を備える、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、こと、
を含む、方法。
[項目286]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
更に含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、
前記第2の領域内に、前記第2の領域内に以前に表示されていた前記1つ以上のカメラの前記視野の第3の部分の少なくとも一部を表示することを停止すること、
を含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、前記第2の領域上に重ね合わされた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域上に重ね合わされた第2の黒化層の不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観は、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に漸進的に遷移させるアニメーションを表示することであって、前記第2の視覚外観は、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、こと、
を含む、項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分は、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法は、
前記第1の部分が前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を更に含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分は、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分は、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の視覚外観で表示されるとき、前記第2の領域は、前記第1領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであるときに満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の位置にあるときに満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域は、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準は、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回るときに満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を含み、
前記1組の第2のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であるときに満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目285から305のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、ことと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分は、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応じて、
前記第3のズームレベルが第1のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応じて、
前記第4のズームレベルが第2のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも前記サブセットを除外する前記第3のカメラの前記視野の前記第5の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの前記表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の前記第5の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求受信したことに応じて、
前記第5のズームレベルが第3のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第6の部分の前記表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第7の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応じて、
前記第6のズームレベルが前記第2の領域内に表示するために第4のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1の領域において、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットの前記表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくともサブセットと重なり合う前記第3のカメラの前記視野の前記第8の部分の前記表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットを除外する前記第1のカメラの前記視野の前記第8の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第2の要求を受信したことに応じて、
前記第7のズームレベルが第5のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から318のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目312から319のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、項目312から321のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、ことと、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することは、
第1のサイズから第2のサイズに前記第1のズームアフォーダンスのサイズを変更することであって、前記第1のズームアフォーダンスの前記第2のサイズは、前記第2のズームアフォーダンスの現在のサイズとは異なる、こと、及び
第1の色から第2の色に前記第1のズームアフォーダンスの色を変更することであって、前記第1のズームアフォーダンスの前記第2の色は、前記第2のズームアフォーダンスの現在の色とは異なる、こと、
のうちの1つ以上を含む、項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満すことが満たされているとの判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、
前記第1のズームアフォーダンスが第2のそれぞれの基準を満すとの判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第4の表現を表示することをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記一部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャは、第1のタイプのジェスチャであり、前記方法は、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャは、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、ことと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応じて、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、ことと、
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示している間に、前記ズームレベルを変更するための前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信したことに応じて、
前記ズームレベルを変更するための前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を更に含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションは、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更ためのする前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャは、第1の方向の移動を含み、
前記第4のジェスチャは、前記第1の方向とは異なる第2の方向の移動を含む、項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更するための前記コントロールに向けられたジェスチャがないとの判定に従って、前記ズームレベルを変更するための前記コントロールを表示することを停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、
調整可能なコントロール上に複数の視覚インジケータを同時に表示することであって、前記複数のズームアフォーダンスに対応する前記複数のズームレベルのそれぞれのズームレベルは、前記複数の視覚インジケータの異なる対応する視覚インジケータによって表される、こと、
を含む、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第1の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成すること、
を更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第2の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することをやめること、
を更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現は、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第3の表現は、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラは、前記第2のカメラとは異なる、項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示することは、
前記第2のズームレベルが第6のズームレベルであるとの判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って、前記第2の表現の一部分を前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスは、第3のズームアフォーダンスを含み、
前記方法は、
第2の現在表示されている表現のズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する前記要求を受信したことに応じて、
前記第8のズームレベルが第1のズーム値範囲内にあるとの判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるとの判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるとの判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を更に含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目328から343のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、手段と、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、ことと、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止することと、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスは、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスは、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスは、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することは、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法は、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に前記第1のジェスチャの完了を検出したことに応じて、触知出力を提供することと、
を更に含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応じて、
前記第2の1組のカメラ設定アフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第3の1組のカメラ設定アフォーダンスを表示することと、
前記第1の複数のカメラモードアフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の位置に前記1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示し、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することであって、前記第2の複数のカメラモードアフォーダンスは、前記第1の複数のカメラモードアフォーダンスとは異なる、ことと、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の位置に前記第3の1組のカメラ設定アフォーダンスを表示することは、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含む、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することであって、前記視野の前記第2の部分は、前記1つ以上のカメラの前記視野の前記第1の部分の一部を含まない、こと、
を更に含む、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することであって、前記1つ以上のカメラの前記視野の前記第4の部分は、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、こと、
を更に含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現は、前記表示デバイス上の第2の位置に表示され、
前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記表示デバイス上の前記第2の位置から前記表示デバイス上の第3の位置に前記第5の表現を動かすこと、
を更に含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードは、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現は、第1のズームレベルで表示され、
前記方法は、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応じて、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を更に含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスは、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる、第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる、第2のカメラモードアフォーダンスと、
を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、かつ前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の位置に前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第5のジェスチャを検出したことに応じて、
前記1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することであって、
前記第3の複数のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスは、前記第2のカメラモードがアクティブであるというインジケーションとともに表示される、
ことと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目350から364のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定であり、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定であり、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止する、
手段と、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを備える電子デバイスにおいて、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
[項目372]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの前記視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の前記第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現は、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、
を含む、こと、
を更に含む、項目371に記載の方法。
[項目373]
自動メディア補正基準が満たされているとの前記判定に従って、自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、ことと、
を更に含む、項目371又は372に記載の方法。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムは、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記縁部部分を更に含まない、項目371から375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムは、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記第1の量の移動とは異なる第2の量の移動を含む、項目371から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムは、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの前記一部分を含まない、項目371から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されるときに満たされる第2の基準を含む、項目371から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが表示される前に前記第2の基準が満たされていたときに満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンスを表示すること、
を更に含む、項目371から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されるときに満たされ、かつ前記自動適用設定が無効化されるときに満たされていない基準を含む、項目371から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
第1の1組の基準が満たされているとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第2の動作を実行させる、第4の自動調整アフォーダンスを表示すること、
を更に含む、項目371から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
前記第1の1組の基準が満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、項目371から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
コンテンツ処理基準が満たされているとの判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないとの判定に従って、前記コンテンツ処理インジケータを表示することをやめることと、
を更に含む、項目371から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、項目371から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、項目371から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、メディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションの表示をやめることと、
を更に含む、項目371から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目371から392のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目371から392のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、項目371から392のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
手段と、を備える、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの位置に表示される、項目219から235のいずれか一項に記載の方法。
[項目400]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
[項目401]
前記メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンスを含み、
メディアをキャプチャする前記要求を受信することは、前記メディアキャプチャアフォーダンスの選択を検出することを含む、項目400に記載の方法。
[項目402]
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、項目400又は401に記載の方法。
[項目403]
前記視覚インジケーションを表示することは、同時に
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、項目400から402のいずれか一項に記載の方法。
[項目404]
前記視覚インジケーションは、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、メディアのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、項目400から403のいずれか一項に記載の方法。
[項目405]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、項目400から404のいずれか一項に記載の方法。
[項目406]
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、項目405に記載の方法。
[項目407]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、項目400から406のいずれか一項に記載の方法。
[項目408]
前記第1のスキュー量、歪められた前記一部分を表示している間に、メディアのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、項目407に記載の方法。
[項目409]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、項目400から408のいずれか一項に記載の方法。
[項目410]
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
メディアのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子の平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、項目409に記載の方法。
[項目411]
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、項目400から410のいずれか一項に記載の方法。
[項目412]
前記電子デバイスの前記ポーズがメディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の前記第1の位置とは異なる前記メディアキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、項目400から411のいずれか一項に記載の方法。
[項目413]
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記メディアをキャプチャしている間に、メディアのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記メディアユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、項目412に記載の方法。
[項目414]
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、項目400から413のいずれか一項に記載の方法。
[項目415]
メディアのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、項目400から414のいずれか一項に記載の方法。
[項目416]
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続すること、
を更に含む、項目415に記載の方法。
[項目417]
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含む、項目400から416のいずれか一項に記載の方法。
[項目418]
前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目400から417のいずれか一項に記載の方法。
[項目419]
前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、項目400から418のいずれか一項に記載の方法。
[項目420]
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、メディアのキャプチャを停止することと、
を更に含む、項目400から419のいずれか一項に記載の方法。
[項目421]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目422]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目423]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目400から420のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目424]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目425]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、電子デバイス。
[項目426]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出する手段と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
手段と、
を備える、電子デバイス。
[項目427]
方法であって、
1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を含む、方法。
[項目428]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、無効化され、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を上回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427に記載の方法。
[項目429]
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが無効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、第1の視覚外観で表示され、
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが有効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、前記第1の視覚外観とは異なる第2の視覚外観で表示される、項目428に記載の方法。
[項目430]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記利用可能な光が前記閾値を上回るかどうかに関係なく、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427から429のいずれか一項に記載の方法。
[項目431]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを切り替えるためのガイダンスを表示すること、
を更に含む、項目427から430のいずれか一項に記載の方法。
[項目432]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記ズームレベルを切り替えるためのガイダンスの表示をやめること、
を更に含む、項目427から431のいずれか一項に記載の方法。
[項目433]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、フラッシュモードを有効化するためのガイダンスを表示すること、
を更に含む、項目427から432のいずれか一項に記載の方法。
[項目434]
前記第1のズームレベルは、前記第2のズームレベルよりも高い、項目427から433のいずれか一項に記載の方法。
[項目435]
前記コンピュータシステムは、1つ以上の深度センサを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、第1の精度での前記第1のズームレベルにおける前記1つ以上のカメラの視野に関する深度情報の判定を有効化し、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、前記第1の精度よりも高い第2の精度での前記第2のズームレベルにおける前記1つ以上のカメラの前記視野に関する深度情報の前記判定を有効化する、項目427から434のいずれか一項に記載の方法。
[項目436]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含む、項目427から435のいずれか一項に記載の方法。
[項目437]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトが、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記低光キャプチャモードに対応するインジケーションを含まない、項目427から436のいずれか一項に記載の方法。
[項目438]
低光キャプチャモードが有効化されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、キャプチャ持続時間にわたる複数の画像のキャプチャを開始することと、
前記キャプチャ持続時間にわたる前記複数の画像のキャプチャを開始した後に、前記複数の画像の少なくとも一部のコンテンツを含む合成画像を生成することであって、前記合成画像は、前記複数の画像のうちの1つ以上よりも視覚的に明るい、ことと、
を更に含む、項目427から437のいずれか一項に記載の方法。
[項目439]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目440]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。
[項目441]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、項目427から438のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。
[項目442]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目443]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、
コンピュータシステム。
[項目444]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更する手段と、低光キャプチャモードを有効化する手段と、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を備える、コンピュータシステム。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出することと、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示することと、
を含む、方法。
[項目2]
条件の前記変化を検出したことに応じて、
第2の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスと同時に、第2のコントロールアフォーダンスを表示することを更に含む、項目1に記載の方法。
[項目3]
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないとの判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示することをやめることを更に含む、項目2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が第1の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが第1のタイプのアクセサリに接続されていると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が第2の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果動作を制御する前記アフォーダンスを表示している間に、前記照明効果動作を制御する前記アフォーダンスの選択を受信することと、
前記照明効果動作を制御する前記アフォーダンスの前記選択を受信したことに応じて、調整されると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
(キャンセル)。
[項目10]
前記特性は、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することは、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う、項目1から8のいずれか一項に記載の方法。
[項目11]
前記特性は、第1のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が有効化されていることである、項目1から8及び10のいずれか一項に記載の方法。
[項目12]
前記特性は、第2のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が無効化されていることである、項目1から8のいずれか一項に記載の方法。
[項目13]
前記特性は、第1の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、静止画像及びビデオをキャプチャするように構成されている、項目1から8及び10から12のいずれか一項に記載の方法。
[項目14]
前記特性は、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目1から8及び10から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域は、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションは、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目1から8及び10から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現は、前記第1のコントロールアフォーダンス及び/又は前記第2のコントロールアフォーダンスを含む前記カメラユーザインタフェースの一部分にわたって延びる、項目2から8及び10から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応じて、
前記第1のコントロールアフォーダンスが第1のタイプのものであるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの第2の特性がアクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの前記第2の特性が非アクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションの表示をやめることと、
を更に含む、項目1から8及び10から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目1から8及び10から17のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目1から8及び10から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目1から8及び10から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出し、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野内のシーンの条件の変化を検出し、
前記1つ以上のカメラの前記視野内のシーンの条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する、
命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
第1の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
条件の前記変化を検出したことに応じて、前記第1のコントロールアフォーダンスと、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションと、を同時に表示する手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正することであって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、ことと、
を含む、方法。
[項目25]
前記カメラコントロール領域は、前記複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャは、前記複数のカメラ設定アフォーダンスを表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャは、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャは、前記複数のカメラモードアフォーダンスのうちの少なくとも1つ上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上の第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応じて、前記以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応じて、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスは、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応じて、前記第1のアスペクト比を有する前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現に変更する前記要求を受信したことに応じて、前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目30に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現は、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現は、第1のズームレベルで表示され、前記方法は、
前記第1のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応じて、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを上げる要求に対応するとの判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを下げる要求に対応するとの判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、を更に含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応じて、
前記第4のズームレベルが前記第2のズームレベルであるとの判定に従って、前記第3のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが前記第3のズームレベルであるとの判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが前記第1のズームレベルであるとの判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャは、前記グラフィカルインジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の位置に前記複数のカメラ設定アフォーダンスを表示することは、
前記第2のタイプの前記ジェスチャが検出されていた間に、第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出されていた間に、前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に前記第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスは、前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードは、静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスは、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目39]
第1のカメラモードは、ポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスは、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、項目36又は37に記載の方法。
[項目40]
前記第1のジェスチャは、前記第1のタイプのものであり、前記第1のジェスチャを検出することは、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法は、
前記第1のジェスチャの前記第1の部分を検出したことに応じて、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を囲む別個の1つ以上の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応じて、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って、前記境界部の少なくとも一部分が前記ディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることと、
を更に含む、項目24から39のいずれか一項に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することは、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触は、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させることが行われる速度は、前記第1の方向の前記第2の接触の移動速度に比例する、項目41に記載の方法。
[項目43]
前記境界部を平行移動させることは、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
メディアをキャプチャする前記第2の要求を受信したことに応じて、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目24から44のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目24から44のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正する手段であって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、ことと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応じて、前記視覚コンテンツの第2の表現を表示することであって、前記視覚コンテンツの前記第2の表現は、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、を含む、ことと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現は、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現は、第1の向きの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きの表現である、項目52に記載の方法。
[項目55]
前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記視覚コンテンツの前記第1の表現は、第1のズームレベルの表現であることと、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現であることと、
を更に含む、項目52に記載の方法。
[項目56]
更に、前記視覚コンテンツの前記第1の表現は、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を実行することを更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求は、前記メディアアイテムを表示する第1の要求であり、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、
を更に含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースは、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、ことを更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法は、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応じて、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションの表示をやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されているときに満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準は、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないときに満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力は、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法は、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応じて、
追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャし、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないとの判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、
を更に含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目51から64のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目51から64のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持することを含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分を表示することを停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の位置に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記表示デバイス上の前記第1の位置から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の位置に向かって前記キャプチャされたメディアの前記表現を動かすアニメーションを表示することを含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第3の位置に表示され、前記方法は、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分を表示することを停止することと、
を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分を表示することを停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の位置から、前記表示デバイス上の前記第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の位置から、前記表示デバイス上の前記第5の位置への前記接触の移動に対応するユーザ入力を受信したことに応じて、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応じて、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応じて、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第5の位置に表示され、前記方法は、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止した後に、前記第5の位置に複数のカメラ設定を制御するアフォーダンスを表示することを更に含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることは、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することは、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の期間は、画像の前記キャプチャされたシーケンスの持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャされたメディアを共有するためのオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応じて、前記キャプチャされたメディアを共有するためのユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記キャプチャされたメディアを共有するための前記ユーザインタフェースは、前記キャプチャされたメディアを共有するための複数のオプションを含む、項目81に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目71から82のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目71から82のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、ことと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供することを更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応じて、
前記第1の入力の第2の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、メディアをキャプチャする要求に応じてキャプチャされる前記メディアの前記境界部の視覚インジケーションを表示することを更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第3の部分を検出したことに応じて、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むとの判定に従って、前記第1の接触が前記閾値時間量にわたって前記第1の位置で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの外観を修正することを更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示することを更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第4の部分を検出したことに応じて、
前記第1の入力の前記第4の部分が前記第1の接触のリフトオフを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示することを更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されず、
前記第2の部分は、前記第1の部分と視覚的に区別される、項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲内にない移動の第2の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定ではなく、かつ移動の前記第2の大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、前記電子デバイスは、第1のカメラモードを使用してメディアをキャプチャするように構成されており、前記方法は、
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含まないとの判定、及び前記第1の入力が第1の移動閾値を上回る前記第1の接触の移動を含むとの判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成することを更に含む、項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法は、
前記カメラディスプレイ領域上の第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力を検出することに従って、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することを更に含む、項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量未満にわたって前記第1の位置で前記第1の接触を検出することを含むとの判定に従って、前記第1の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整することを更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応じて、
前記第1の入力が、メディアをキャプチャする前記要求に応じてキャプチャされる前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって前記第1の接触を維持することを含むとの判定に従って、前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成することを更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成した後に、前記第3の位置に対応する前記1つ以上のカメラの視野内の前記位置での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させない、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応じて、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目89から102のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目89から102のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの視野の第1の表現を表示することを含み、
前記第1の表現は、前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の第2の表現を表示することを含み、
前記第2の表現は、前記第2のズームレベルで前記第2のカメラの向きで表示される、項目109又は110に記載の方法。
[項目112]
前記第1の向きは、縦向きであり、前記第1の表現は、前記1つ以上のカメラの前記視野の一部分であり、前記第2の向きは、横向きであり、前記第2の表現は、前記1つ以上のカメラの視野全体である、項目111に記載の方法。
[項目113]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第3の表現に置き換えることであって、前記第3の表現は、前記第1のカメラの向きであり、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択は、前記第1のズームレベルを第4のズームレベルに変更する要求に対する、ことと、
前記第2の入力を検出したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第4の表現に置き換えることであって、前記第4の表現は、前記第1のカメラの向きであり、かつ前記第4のズームレベルである、ことと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスは、前記第1のカメラユーザインタフェース及び前記第2のカメラユーザインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第5の表現に置き換えることであって、前記第5の表現は、前記第1のカメラの向きで、かつ前記第3のズームレベルである、ことと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記1つ以上のカメラは、第1のカメラと、前記第1のカメラとは別個の第2のカメラとを含み、
前記1組の自動ズーム基準は、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないときに満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記1組の自動ズーム基準は、前記電子デバイスがビデオキャプチャ動作モードにないときに満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルは、前記第2のズームレベルよりも高く、前記方法は、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応じて、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、
を更に含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目109から120のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目109から120のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することであって、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示される、ことと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することであって、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、ことと、
を含む、方法。
[項目128]
前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法は、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記可変フレームレート基準が満たされていないとの判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持することを更に含む、項目127に記載の方法。
[項目129]
前記可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することは、
前記可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないとの判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
(キャンセル)。
[項目132]
前記第2のフレームレートは、それぞれの閾値を下回る前記1つ以上のカメラの前記視野内の周辺光の量に基づく、項目127から130のいずれか一項に記載の方法。
[項目133]
前記検出された変化は、検出された移動を含み、前記第2のフレームレートは、前記検出された移動の量に基づく、項目127から130及び132のいずれか一項に記載の方法。
[項目134]
前記移動基準は、前記1つ以上のカメラの前記視野内の前記検出された変化が移動閾値よりも大きい前記電子デバイスの移動に対応するときに満たされる基準を含む、項目127から130及び132から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目127から130及び132から134のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目127から130及び132から134のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目127から130及び132から134のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を下回るときに満たされる基準を含む、可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすときに、第1のフレームレートで行われ、かつ前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、前記ライブプレビューの前記更新が、前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないときに、第2のフレームレートで行われ、かつ前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度より視覚的に明るい第2の輝度で表示される、
手段と、
を備える、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、ことと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールはスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することは、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用してメディアの前記キャプチャを開始するメディアキャプチャアフォーダンスを表示することを含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応じて、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の表現であり、前記方法は、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第2の表現に置き換えることであって、前記第2の表現は、前記第2のキャプチャ持続時間に基づき、かつ前記第1の表現と視覚的に区別される、ことを更に含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止することを更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールは、第1の色で表示され、前記方法は、
メディアをキャプチャする前記要求を受信したことに応じて、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示することを更に含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応じて、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを前記第3のキャプチャ値の前記第3のインジケーションに動かす第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間は、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、ことと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすることを更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間に基づく前記第2のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第2のメディアの表現を表示することと、
を更に含む、項目155に記載の方法。
[項目157]
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を上回るとの判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第3のメディアの表現を表示することと、
を更に含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応じて、メディアをキャプチャするように要求する前記アフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えることを更に含む、項目155から167のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現は、前記第1のメディアの前記第1の表現と視覚的に区別される、ことと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1のメディアの前記第1の表現の表示を前記第1のメディアの前記第2の表現の表示に前記置き換えることは、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法は、
前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第1の選択を受信することと、
前記低光状態キャプチャインジケータの第1の選択を受信したことに応じて、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、
を含む、項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第2の選択を受信することを含み、
前記方法は、
前記低光キャプチャ状態インジケータの前記第2の選択を受信したことに応じて、前記キャプチャ持続時間を調整する前記コントロールを再表示することを含む、項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応じて、フラッシュ動作を実行しないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件は、前記低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目141から164のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目141から164のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ、前記フラッシュ動作がアクティブ又は非アクティブに設定されているかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、かつフラッシュ設定がアクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、かつ前記フラッシュ設定がアクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示す、項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、項目173に記載の方法。
[項目175]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
前記低光キャプチャモードの前記状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示することを更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるとの判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応じて、
低光キャプチャモードの前記状態が非アクティブであるとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応じて、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの持続時間にわたって前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に前記第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に前記1つ以上のカメラの前記視野から導出された表現を表示することを停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示することを更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態は、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態は、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲内にあるとの判定に従って、前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が利用可能であることを示す、項目171又は172及び174から185のいずれか一項に記載の方法。
[項目187]
前記キャプチャ持続時間を調整する前記コントロールは、前記キャプチャ持続時間を調整する第1のコントロールであり、前記方法は、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの選択を受信したことに応じて、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、
を更に含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定範囲内にあるとの判定に従って、第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないとの判定に従って、前記第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすとの前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態がアクティブであること、及び前記第1のキャプチャ持続時間の第2の視覚表現を含むことを示し、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内であるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含む、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能であることを示す、前記低光キャプチャ状態インジケータとは、互いに視覚的に異なる、
ことを更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目171から189のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目171から189のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
手段と、
を備える、電子デバイス。
[項目196]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、ことと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールは、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することは、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第1の静的部分の表示を維持することを含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータは、自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータは、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、
を含み、
前記複数の編集可能パラメータの現在値を調整することは、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目199に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが、前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応じて、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示し、かつ前記第3のユーザ入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に抑制することを更に含む、項目202に記載の方法。
[項目204]
前記第3のユーザ入力は、前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に受信され、
前記第3のアフォーダンスを表示することは、
前記第4の編集可能パラメータが第1のタイプのパラメータであるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示することをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力は、前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力は、前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディアの前記表現及び前記第1のアフォーダンスを表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するとの判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないとの判定に従って、触知出力を生成することをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調することを更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータは、前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲しており、第4の編集可能パラメータ現在値インジケータは、前記第2のアフォーダンスを視覚的に包囲している、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスは、1つ以上のカメラを含み、
前記視覚メディアの前記表現は、前記1つ又はカメラの視野の表現であり、
前記メディア編集ユーザインタフェースは、前記電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように構成されている間に表示され、
前記第1の編集可能パラメータは、照明効果強度であり、
前記第2の編集可能パラメータは、深度効果強度である、項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータは、照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースは、前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第1の編集可能パラメータの前記調整された現在値に基づいて、前記照明効果パラメータを調整することを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータは、視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
視覚メディアの前記表現の表示を、前記視覚フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えることを含む、項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目196から212のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、項目196から212のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、第1のユーザインタフェースを表示することであって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、
ことと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースは、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示することを更に含む、項目220に記載の方法。
[項目222]
前記遠近歪は、水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量は、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪は、垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量は、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現は、第1の実視水平線を含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記第1の表現内の視覚境界部に対する回転度を含んでいる間に、前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出したことに応じて、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記第1の表現を回転させることと、
を更に含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現は、前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含んでいる間に、前記第1の表現の前記第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記第1の視覚コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応じて、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースは、自動調整アフォーダンスを含み、前記方法は、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応じて、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群から選択される前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記調整された2つ以上のパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を更に含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応じて、前記表示デバイス上に、第3のユーザインタフェースを表示することであって、
第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むとの判定に従って、前記自動調整アフォーダンスを表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないとの判定に従って、前記自動調整アフォーダンスを表示することをやめることと、
を含む、ことと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの前記視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現は、第1のアスペクト比で表示され、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を更に含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現は、第1の向きで表示され、
前記第1のアスペクト比は、第1の水平アスペクト比値及び第1の垂直アスペクト比値を有し、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することであって、前記第3のアスペクト比は、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、
を有する、ことと、
を更に含む、項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することは、
前記第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含むとの判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することを含む、項目219から230のいずれか一項に記載の方法。
[項目232]
視覚境界部は、前記第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、前記第7の表現は、前記第1の視覚メディア内の第1の時間に対応し、
前記方法は、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応じて、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、
を更に含む、項目231に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応じて、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、
を更に含む、項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現は、前記カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールは、遠近歪を補正するコントロールに対応し、
前記方法は、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪の補正量を更新することを更に含む、項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目219から235及び399のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、項目219から235及び399のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、第1のユーザインタフェースを表示する手段であって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスにおいて、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、
1つ以上のカメラの視野の表現を表示することを含む、ことと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、ことと、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出することと、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、複数の画像から単一の合成画像を生成することであって、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を前記単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、ことと、
を含む、方法。
[項目243]
(キャンセル)。
[項目244]
(キャンセル)。
[項目245]
(キャンセル)。
[項目246]
(今回補正)前記コントロールが前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応じて、
前記電子デバイスの前記第1の安定度が第1の安定性閾値を上回るとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光カメラモードの状態を示し、かつ、
キャプチャ持続時間表示基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
キャプチャ持続時間表示基準が満たされていないとの判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、
第1の低光キャプチャ状態インジケータを表示することを更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準は、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現を含む、第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ前記第3のキャプチャ持続時間の前記視覚表現を含まない、第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内にあるとの判定に従って、前記低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる、ことと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるとの判定に従って、前記第2の低光キャプチャ状態インジケータ、前記第3の低光キャプチャ状態インジケータ、及び前記第4の低光キャプチャ状態インジケータを表示することをやめることと、
を更に含む、項目242及び246から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールは、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、
に調整可能であるように構成されている、項目242及び246から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値である、
ことを含む、項目250又は251に記載の方法。
[項目253]
前記第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ持続時間値であり、前記方法は、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応じて、
第1の現在の条件が第3のキャプチャ持続時間基準が満たされていることを満たすとの判定に従って、
前記第2の推奨されるキャプチャ持続時間値を、第7のキャプチャ持続時間値であって、前記第5のキャプチャ持続時間値は、前記第7のキャプチャ持続時間値とは異なる、第7のキャプチャ持続時間値に、及び、
前記第3の推奨されるキャプチャ持続時間値を、前記第6のキャプチャ持続時間値とは異なる第8のキャプチャ持続時間値に、
のうちの少なくとも1つに変更することと、
を更に含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準は、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、
からなる群から選択される1つ以上のパラメータに基づく基準を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法は、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択は、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、ことと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を更に含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第1のインジケーションであり、
前記第1のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置に前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応じて、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を更に含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第2のインジケーションであり、
前記第2のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置に前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
現在の条件の前記第2の変化を検出したことに応じて、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ前記第4の位置に前記第1のインジケーションを表示したことに応じて、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を更に含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、メディアをキャプチャする前記アフォーダンスの視覚外観を変更することを更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えることを更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することを更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、かつ前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るとの判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないとの判定に従って、前記1つ以上の低光モードアニメーションを表示することをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現を表示することであって、
前記第1の時間は、前記第2の時間とは異なり、
前記第3の合成画像の前記表現は、前記第4の合成画像の前記表現と視覚的に区別される、
ことと、
を更に含む、項目242及び246から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目242及び246から262のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目242及び246から262のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、
項目242及び246から262のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示し、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出し、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、複数の画像から前記単一の合成画像を生成する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示し、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出し、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、複数の画像から前記単一の合成画像を生成する、
命令を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、
1つ以上のカメラの視野の表現を表示することを含む、
手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、
前記1つ以上のカメラの前記視野内の周辺光が第1の閾値を上回るときに満たされる基準を含む、1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なり、かつ前記1つ以上のカメラの前記視野内の周辺光が前記第1の閾値を下回るときに満たされる基準を含む、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、手段と、
前記低光カメラモードがアクティブである間に、かつメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示している間に、シャッターアフォーダンス上のタップ入力に対応する入力を検出する手段と、
前記シャッターアフォーダンス上の前記タップ入力に対応する前記入力を検出したことに応じて、複数の画像から単一の合成画像を生成する手段であって、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を上回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間にわたって第1の数の画像をキャプチャして、前記第1の数の画像を前記単一の合成画像に組み合わせることと、
前記1つ以上のカメラの前記視野内の前記周辺光が前記第1の閾値を下回るときに前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第1の数の画像よりも多い第2の数の画像をキャプチャして、前記第2の数の画像を前記単一の合成画像に組み合わせることと、
を含む、手段と、
を備える、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションは、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、第2の位置に表示される、第2の1組の1つ以上の形状と、
を含む、形状の組を含む、項目269又は270に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状は、第1の色を含み、
前記第2の1組の1つ以上の形状は、前記第1の色とは異なる第2の色を含む、項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、前記メディアキャプチャユーザインタフェース上の前記第2の位置とは異なる前記メディアキャプチャユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記第1の1組の1つ以上の形状の前記第1の位置と前記第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にあるとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つの表示をやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、前記第2の閾値差内にないとの判定に従って、前記触知出力を生成することをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているとの判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示することを更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示することをやめることを更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションは、前記第1の時間に表示され、前記方法は、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応じて、前記表示デバイスを介して、前記視覚インジケーションを表示することをやめることと、
を更に含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目269から278のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、項目269から278のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、
を備える、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、ことを含む、方法。
[項目286]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、
前記第2の領域内に、前記第2の領域内に以前に表示されていた前記1つ以上のカメラの前記視野の第3の部分の少なくとも一部を表示することを停止することを含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、前記第2の領域上に重ね合わされた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域上に重ね合わされた第2の黒化層の不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観は、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に漸進的に遷移させるアニメーションを表示することであって、前記第2の視覚外観は、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、ことを含む、項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分は、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法は、
前記第1の部分が前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を更に含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分は、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分は、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の視覚外観で表示されるとき、前記第2の領域は、前記第1領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであるときに満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の位置にあるときに満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域は、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準は、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回るときに満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を含み、
前記1組の第2のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であるときに満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目285から305のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目285から305のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、
を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含み、かつ前記第2の距離が、前記第1の距離よりも短い、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、ことと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分は、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応じて、
前記第3のズームレベルが第1のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応じて、
前記第4のズームレベルが第2のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも前記サブセットを除外する前記第3のカメラの前記視野の前記第5の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの前記表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の前記第5の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求受信したことに応じて、
前記第5のズームレベルが第3のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第6の部分の前記表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第7の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応じて、
前記第6のズームレベルが前記第2の領域内に表示するために第4のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1の領域において、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットの前記表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくともサブセットと重なり合う前記第3のカメラの前記視野の前記第8の部分の前記表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットを除外する前記第1のカメラの前記視野の前記第8の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第2の要求を受信したことに応じて、
前記第7のズームレベルが第5のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から318のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、項目312から319のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目312から321のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、項目312から321のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、ことと、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することは、
第1のサイズから第2のサイズに前記第1のズームアフォーダンスのサイズを変更することであって、前記第1のズームアフォーダンスの前記第2のサイズは、前記第2のズームアフォーダンスの現在のサイズとは異なる、こと、及び
第1の色から第2の色に前記第1のズームアフォーダンスの色を変更することであって、前記第1のズームアフォーダンスの前記第2の色は、前記第2のズームアフォーダンスの現在の色とは異なる、こと、
のうちの1つ以上を含む、項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満すことが満たされているとの判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、
前記第1のズームアフォーダンスが第2のそれぞれの基準を満すとの判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第4の表現を表示することをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記一部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャは、第1のタイプのジェスチャであり、前記方法は、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャは、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、ことと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応じて、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、ことと、
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示している間に、前記ズームレベルを変更するための前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信したことに応じて、
前記ズームレベルを変更するための前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を更に含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションは、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更ためのする前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャは、第1の方向の移動を含み、
前記第4のジェスチャは、前記第1の方向とは異なる第2の方向の移動を含む、項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更するための前記コントロールに向けられたジェスチャがないとの判定に従って、前記ズームレベルを変更するための前記コントロールを表示することを停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、
調整可能なコントロール上に複数の視覚インジケータを同時に表示することであって、前記複数のズームアフォーダンスに対応する前記複数のズームレベルのそれぞれのズームレベルは、前記複数の視覚インジケータの異なる対応する視覚インジケータによって表される、ことを含む、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第1の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することを更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第2の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することをやめることを更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現は、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第3の表現は、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラは、前記第2のカメラとは異なる、項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示することは、
前記第2のズームレベルが第6のズームレベルであるとの判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って、前記第2の表現の一部分を前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスは、第3のズームアフォーダンスを含み、
前記方法は、
第2の現在表示されている表現のズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する前記要求を受信したことに応じて、
前記第8のズームレベルが第1のズーム値範囲内にあるとの判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるとの判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるとの判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を更に含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目328から343のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目328から343のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、手段と、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、ことと、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止することと、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスは、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスは、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスは、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することは、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法は、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に前記第1のジェスチャの完了を検出したことに応じて、触知出力を提供することと、
を更に含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応じて、
前記第2の1組のカメラ設定アフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第3の1組のカメラ設定アフォーダンスを表示することと、
前記第1の複数のカメラモードアフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の位置に前記1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示し、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することであって、前記第2の複数のカメラモードアフォーダンスは、前記第1の複数のカメラモードアフォーダンスとは異なる、ことと、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の位置に前記第3の1組のカメラ設定アフォーダンスを表示することは、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含む、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することであって、前記視野の前記第2の部分は、前記1つ以上のカメラの前記視野の前記第1の部分の一部を含まない、ことを更に含む、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することであって、前記1つ以上のカメラの前記視野の前記第4の部分は、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、ことを更に含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現は、前記表示デバイス上の第2の位置に表示され、
前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記表示デバイス上の前記第2の位置から前記表示デバイス上の第3の位置に前記第5の表現を動かすことを更に含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードは、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現は、第1のズームレベルで表示され、
前記方法は、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応じて、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を更に含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスは、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる、第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる、第2のカメラモードアフォーダンスと、
を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、かつ前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の位置に前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第5のジェスチャを検出したことに応じて、
前記1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することであって、
前記第3の複数のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスは、前記第2のカメラモードがアクティブであるというインジケーションとともに表示される、
ことと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目350から364のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目350から364のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定であり、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定であり、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止する、
手段と、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを備える電子デバイスにおいて、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、ことと、
を含む、方法。
[項目372]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの前記視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の前記第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現は、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、
を含む、ことを更に含む、項目371に記載の方法。
[項目373]
(キャンセル)。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目371に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目371に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムは、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記縁部部分を更に含まない、
項目371、372、及び374又は375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムは、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記第1の量の移動とは異なる第2の量の移動を含む、
項目371、372、及び374から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムは、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの前記一部分を含まない、
項目371、372、及び374から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されるときに満たされる第2の基準を含む、項目371、372、及び374から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが表示される前に前記第2の基準が満たされていたときに満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンスを表示することを更に含む、項目371、372、及び374から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されるときに満たされ、かつ前記自動適用設定が無効化されるときに満たされていない基準を含む、項目371、372、及び374から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371、372、及び374から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
第1の1組の基準が満たされているとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第2の動作を実行させる、第4の自動調整アフォーダンスを表示することを更に含む、項目371、372、及び374から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
前記第1の1組の基準が満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示することを更に含む、項目371、372、及び374から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
コンテンツ処理基準が満たされているとの判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないとの判定に従って、前記コンテンツ処理インジケータを表示することをやめることと、
を更に含む、項目371、372、及び374から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記コンテンツ処理インジケータの表示を停止することを更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えることを更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することを更に含む、項目371、372、及び374から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することを更に含む、項目371、372、及び374から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、メディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションの表示をやめることと、
を更に含む、項目371、372、及び374から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目371、372、及び374から392のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目371、372、及び374から392のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、
項目371、372、及び374から392のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
命令を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示し、
自動メディア補正基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示し、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示し、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、
手段と、
を備える、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの位置に表示される、項目219から235のいずれか一項に記載の方法。
[項目400]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
[項目401]
前記メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンスを含み、
メディアをキャプチャする前記要求を受信することは、前記メディアキャプチャアフォーダンスの選択を検出することを含む、項目400に記載の方法。
[項目402]
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、項目400又は401に記載の方法。
[項目403]
前記視覚インジケーションを表示することは、同時に
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、項目400から402のいずれか一項に記載の方法。
[項目404]
前記視覚インジケーションは、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、メディアのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、項目400から403のいずれか一項に記載の方法。
[項目405]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、項目400から404のいずれか一項に記載の方法。
[項目406]
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、項目405に記載の方法。
[項目407]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、項目400から406のいずれか一項に記載の方法。
[項目408]
前記第1のスキュー量、歪められた前記一部分を表示している間に、メディアのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、項目407に記載の方法。
[項目409]
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、項目400から408のいずれか一項に記載の方法。
[項目410]
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
メディアのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子の平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、項目409に記載の方法。
[項目411]
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、項目400から410のいずれか一項に記載の方法。
[項目412]
前記電子デバイスの前記ポーズがメディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の前記第1の位置とは異なる前記メディアキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、項目400から411のいずれか一項に記載の方法。
[項目413]
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記メディアをキャプチャしている間に、メディアのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記メディアユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、項目412に記載の方法。
[項目414]
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、項目400から413のいずれか一項に記載の方法。
[項目415]
メディアのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、項目400から414のいずれか一項に記載の方法。
[項目416]
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続することを更に含む、項目415に記載の方法。
[項目417]
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含む、項目400から416のいずれか一項に記載の方法。
[項目418]
前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、項目400から417のいずれか一項に記載の方法。
[項目419]
前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、項目400から418のいずれか一項に記載の方法。
[項目420]
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、メディアのキャプチャを停止することと、
を更に含む、項目400から419のいずれか一項に記載の方法。
[項目421]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目422]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目400から420のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
[項目423]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、項目400から420のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
[項目424]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目425]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、電子デバイス。
[項目426]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出する手段と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
手段と、
を備える、電子デバイス。
[項目427]
方法であって、
1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を含む、方法。
[項目428]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、無効化され、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を上回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427に記載の方法。
[項目429]
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが無効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、第1の視覚外観で表示され、
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが有効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、前記第1の視覚外観とは異なる第2の視覚外観で表示される、項目428に記載の方法。
[項目430]
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記利用可能な光が前記閾値を上回るかどうかに関係なく、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、項目427から429のいずれか一項に記載の方法。
[項目431]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを切り替えるためのガイダンスを表示することを更に含む、項目427から430のいずれか一項に記載の方法。
[項目432]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記ズームレベルを切り替えるためのガイダンスの表示をやめることを更に含む、項目427から431のいずれか一項に記載の方法。
[項目433]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、フラッシュモードを有効化するためのガイダンスを表示することを更に含む、項目427から432のいずれか一項に記載の方法。
[項目434]
前記第1のズームレベルは、前記第2のズームレベルよりも高い、項目427から433のいずれか一項に記載の方法。
[項目435]
前記コンピュータシステムは、1つ以上の深度センサを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、第1の精度での前記第1のズームレベルにおける前記1つ以上のカメラの視野に関する深度情報の判定を有効化し、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、前記第1の精度よりも高い第2の精度での前記第2のズームレベルにおける前記1つ以上のカメラの前記視野に関する深度情報の前記判定を有効化する、項目427から434のいずれか一項に記載の方法。
[項目436]
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含む、項目427から435のいずれか一項に記載の方法。
[項目437]
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトが、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記低光キャプチャモードに対応するインジケーションを含まない、項目427から436のいずれか一項に記載の方法。
[項目438]
低光キャプチャモードが有効化されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、キャプチャ持続時間にわたる複数の画像のキャプチャを開始することと、
前記キャプチャ持続時間にわたる前記複数の画像のキャプチャを開始した後に、前記複数の画像の少なくとも一部のコンテンツを含む合成画像を生成することであって、前記合成画像は、前記複数の画像のうちの1つ以上よりも視覚的に明るい、ことと、
を更に含む、項目427から437のいずれか一項に記載の方法。
[項目439]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
[項目440]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、項目427から438のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。
[項目441]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、項目427から438のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。
[項目442]
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、非一時的コンピュータ可読記憶媒体。
[項目443]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、
コンピュータシステム。
[項目444]
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
手段と、
を備える、コンピュータシステム。
Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also covers the use of such personal information data. It is contemplated that it is also possible to implement the various embodiments without requiring access to the . That is, various embodiments of the present technology are not rendered inoperable by the lack of all or part of such personal information data. For example, media may include non-personal data or a minimal amount of personal information, such as content requested by a device associated with a user, other non-personal information available in the Service, or publicly available information. By inferring preferences based solely on quantity, they can be captured, accessed, and edited.
[Item 1]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
A method, including
[Item 2]
In response to detecting said change in conditions,
simultaneously displaying the first control affordance and the second control affordance in accordance with determining that the first and second predetermined conditions are met;
The method of item 1, further comprising:
[Item 3]
In response to detecting said change in conditions,
displaying the first control affordance while displaying the second control affordance in accordance with a determination that the first predetermined condition is satisfied and the second predetermined condition is not satisfied; ceasing to display and
displaying the first control affordance while displaying the second control affordance in accordance with determining that the first predefined condition is not met and the second predefined condition is met; and stop displaying
3. The method of item 1 or 2, further comprising
[Item 4]
When the amount of light within the field of view of the one or more cameras is below a first predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control flash operation. 4. The method of any one of items 1 to 3.
[Item 5]
of items 1 to 4, wherein when the electronic device is connected to a first type of accessory, the first predetermined condition is satisfied and the first control affordance is an affordance for controlling timer operation; A method according to any one of paragraphs.
[Item 6]
When the amount of light within the field of view of the one or more cameras falls below a second predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control low light capture mode. 6. The method according to any one of items 1 to 5, wherein
[Item 7]
when the electronic device is configured to capture an image in a first capture mode, the first predetermined condition is met and the first control affordance is an affordance for controlling lighting effect operation; 7. The method of any one of items 1 to 6, wherein the method is
[Item 8]
receiving a selection of the affordance for controlling the light effect operation while displaying the affordance for controlling the light effect operation;
the lighting effect that, when adjusted, adjusts the lighting effect applied to the representation of the field of view of the one or more cameras in response to receiving the selection of the affordance that controls the lighting effect operation; displaying affordances for modulating behavior;
8. The method of item 7, further comprising:
[Item 9]
simultaneously displaying an indication of a current state of a characteristic of the electronic device associated with the first control affordance while displaying the first control affordance;
9. The method of any one of items 1-8, further comprising:
[Item 10]
The characteristic has one or more active states and one or more inactive states, and displaying the indication indicates that the characteristic is in at least one of the one or more active states. 10. The method of item 9, according to the determination of
[Item 11]
11. A method according to item 9 or 10, wherein the property is a first flash operation setting and the current state of the property is that flash operation is enabled.
[Item 12]
10. The method of item 9, wherein the property is a second flash operation setting and the current state of the property is flash operation disabled.
[Item 13]
The property is an image capture mode setting, the current state of the property is that the image capture mode is enabled, and the electronic device responds to input corresponding to a request to capture media. 13. The method of any one of items 9 to 12, wherein the method is configured to capture still images and video with a device.
[Item 14]
The property is a second image capture mode setting, the current state of the property is that the second image capture mode is enabled, and the electronic device requests to capture media. 14. A method according to any one of items 9 to 13, configured to capture media using high dynamic range imaging effects in response to inputs corresponding to .
[Item 15]
The camera control area is displayed adjacent a first side of the display device and the indication is displayed adjacent a second side of the display device opposite the first side. 15. The method of any one of items 9 to 14, wherein
[Item 16]
16. Claimed in any one of items 1 to 15, wherein said representation of said field of view of said one or more cameras extends over a portion of said camera user interface including said first control affordance and/or said second control affordance. described method.
[Item 17]
In response to displaying the first control affordance,
displaying a second indication associated with the first control affordance in accordance with determining that the first control affordance is of a first type;
determining that the first control affordance is of a second type different from the first type, and a second characteristic of the electronic device associated with the first control affordance is active displaying the second indication associated with the first control affordance in accordance with the determination;
determining that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control affordance is inactive Ceasing display of the second indication associated with the first control affordance in accordance with determining that a condition exists;
17. The method of any one of items 1-16, further comprising
[Item 18]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 1 to 17.
[Item 19]
an electronic device,
a display device;
one or more cameras;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs being a method according to any one of items 1 to 17. An electronic device containing instructions to carry out
[Item 20]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 1 to 17;
An electronic device comprising:
[Item 21]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
A non-transitory computer-readable storage medium containing instructions.
[Item 22]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
An electronic device containing instructions.
[Item 23]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
means, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; means for displaying the camera user interface without displaying a second control affordance associated with a condition;
means for detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
means and
An electronic device comprising:
[Item 24]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
including
detecting a first gesture on the camera user interface while displaying the camera user interface;
modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
including
A method, including
[Item 25]
25. The method of claim 24, wherein the camera control region includes affordances displaying the plurality of camera setting affordances, and wherein the gesture of the second type is selection of the affordances displaying the plurality of camera setting affordances. Method.
[Item 26]
25. The method of item 24, wherein the gesture of the second type is movement of contact within the camera display area.
[Item 27]
27. The method of any one of items 24-26, wherein the gesture of the first type is movement of contact over at least one of the plurality of camera mode affordances.
[Item 28]
detecting a second gesture on the camera user interface corresponding to a request to display a first representation of previously captured media;
displaying a first representation of the previously captured media in response to detecting the second gesture;
28. The method of any one of items 24-27, further comprising:
[Item 29]
detecting capture of a first media using the one or more cameras while not displaying a representation of previously captured media;
In response to detecting the capture of the first media,
displaying one or more representations of captured media, including representations of the first media;
29. The method of any one of items 24-28, further comprising:
[Item 30]
the plurality of camera setting affordances includes affordances that, when displayed, configure the electronic device to capture media displayed at a first aspect ratio in response to a first request to capture media; 30. The method of any one of items 24-29.
[Item 31]
receiving a third request to capture media while the electronic device is configured to capture media that, when displayed, is displayed in the first aspect ratio;
responsive to receiving the third request to capture media, displaying a representation of the captured media having the first aspect ratio;
receiving a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio;
in response to receiving the request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio; displaying the representation of the captured media having an aspect ratio;
31. The method of item 30, further comprising:
[Item 32]
32. The method of item 31, wherein the representation of the captured media having the second aspect ratio includes visual content not present in the representation of the captured media having the first aspect ratio.
[Item 33]
the representation of the field of view of the one or more cameras is displayed at a first zoom level, the method comprising:
While displaying the representation of the field of view of the one or more cameras displayed at the first zoom level, receiving a first request to change the zoom level of the representation;
in response to receiving the first request to change the zoom level of the representation;
increasing the second representation field of view of the one or more cameras to be greater than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to the request to increase the zoom level of the representation; displaying at a second zoom level;
setting a third representation field of view of the one or more cameras to be smaller than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation; 33. The method of any one of items 24-32, further comprising displaying at a third zoom level.
[Item 34]
receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at a fourth zoom level;
in response to receiving the second request to change the zoom level of the representation;
displaying a fourth representation of the field of view of the one or more cameras at the third zoom level in accordance with determining that the fourth zoom level is the second zoom level;
displaying a fifth representation of the field of view of the one or more cameras at the first zoom level in accordance with determining that the fourth zoom level is the third zoom level;
displaying a sixth representation of the field of view of the one or more cameras at the second zoom level in accordance with determining that the fourth zoom level is the first zoom level;
34. The method of item 33, further comprising:
[Item 35]
displaying the camera user interface includes displaying affordances including graphical indications of states of capture settings;
35. The method of any one of items 24-34, wherein the gesture of the second type corresponds to selecting the graphical indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location includes:
Following a determination that the electronic device is configured to capture media in a first camera mode while the gesture of the second type was detected, a first displaying a set of camera setting affordances;
following determining that the electronic device is configured to capture media in a second camera mode different from the first camera mode while the gesture of the second type was detected; displaying a second set of camera setting affordances different from the first set of camera setting affordances at the first location;
36. The method of any one of items 24-35, comprising
[Item 37]
37. The method of item 36, wherein the first set of camera setting affordances comprises a first camera setting affordance and the second set of camera setting affordances comprises the first camera setting affordance.
[Item 38]
The first camera mode is a still photo capture mode, and the first set of camera setting affordances are:
affordances including visual indications corresponding to flash settings;
Affordances, including visual indications corresponding to live settings;
affordances that include visual indications corresponding to aspect ratio settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
38. The method of item 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 39]
The first camera mode is portrait mode, and the first set of camera setting affordances comprises:
affordances, including visual indications corresponding to depth control settings;
affordances including visual indications corresponding to flash settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
affordances, including visual indications corresponding to lighting settings;
38. The method of item 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 40]
The first gesture is of the first type, and detecting the first gesture includes determining a first portion of the first gesture and a second portion of the first gesture. detecting, the method comprising:
separate one or more boundaries surrounding at least a portion of the representation of the field of view of the one or more cameras via the display device in response to detecting the first portion of the first gesture; displaying a boundary containing the sub-element;
responsive to detecting the second portion of the first gesture, moving the boundary in a first direction across a display of the display device such that at least a portion of the boundary is parallel off the display; translating until it is moved and stopped being displayed;
40. The method of any one of items 24-39, further comprising:
[Item 41]
41. The method of item 40, wherein detecting the second portion of the first gesture includes detecting a second contact moving in the first direction.
[Item 42]
the second contact is detected on the representation of the field of view of the one or more cameras;
42. The method of item 41, wherein the speed at which the translating of the boundary is performed is proportional to the speed of movement of the second contact in the first direction.
[Item 43]
42. The method of item 41, wherein translating the boundary comprises changing the visual appearance of the at least part of the representation of the field of view of the one or more cameras surrounded by the boundary.
[Item 44]
detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode;
responsive to receiving the second request to capture media, based on a setting corresponding to the third camera mode and at least one setting corresponding to affordances of the plurality of camera setting affordances; capturing media using any of the above cameras;
44. The method of any one of items 24-43, further comprising:
[Item 45]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 45. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 24-44.
[Item 46]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 24-44.
[Item 47]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 24 to 44;
An electronic device comprising:
[Item 48]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising:
A non-transitory computer-readable storage medium containing instructions.
[Item 49]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising
An electronic device containing instructions.
[Item 50]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
means, including
means for detecting a first gesture on the camera user interface while displaying the camera user interface;
means for modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
means, including
An electronic device comprising:
[Item 51]
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A method, including
[Item 52]
detecting, while displaying the first representation of the visual content, a set of one or more inputs corresponding to a request to modify the representation of the visual content;
displaying a second representation of the visual content in response to detecting the set of one or more inputs, the second representation of the visual content being controlled by the one or more cameras; and visual content from at least a portion of the first portion of the field of view of the one or more cameras that was not included in the first representation of the visual content from the second portion of the field of view of the one or more cameras visual content based at least in part on the visual content;
52. The method of item 51, further comprising:
[Item 53]
the first representation of the visual content is from a first visual perspective;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of item 52, wherein the representation from a second visual perspective different from the first visual perspective is generated based on .
[Item 54]
the first representation of the visual content is a representation in a first orientation;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of item 52, wherein the representation of a second orientation different from the first orientation is generated based on .
[Item 55]
The first representation is displayed at a first zoom level, the method comprising:
the first representation of the visual content is a representation at a first zoom level;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. a representation of a second zoom level, different from the first zoom level, generated based on
53. The method of item 52, further comprising:
[Item 56]
Further, the first representation of the visual content uses at least a second portion of the visual content from the second portion of the field of view of the one or more cameras for digital image stabilization operations. 56. The method of any one of items 51-55, generated based at least in part.
[Item 57]
performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras after capturing the media item;
57. The method of any one of items 51-56, further comprising:
[Item 58]
The request to display the media item is a first request to display the media item, the method comprising:
corresponding to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; receiving a second request to display the media item after displaying the first representation of the visual content to;
the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and the one in response to receiving the second request to display the media item; displaying the representation of the visual content corresponding to the second portion of the field of view of the camera;
58. The method of any one of items 51-57, further comprising:
[Item 59]
displaying, via the display device, a second camera user interface in response to receiving the request to display the camera user interface and in accordance with determining that respective criteria are met. and the second camera user interface renders the first portion of the field of view of the one or more cameras without including the representation of the second portion of the field of view of the one or more cameras. including said expression;
59. The method of any one of items 51-58, further comprising:
[Item 60]
The method includes:
receiving a request to display a previously captured media item;
in response to receiving said request to display said previously captured media item;
displaying an indication of additional content in accordance with determining that the previously captured media item was captured when the respective criteria were not met;
Ceasing display of indications of additional content in accordance with determining that the previously captured media item has been captured when the respective criteria are met;
60. The method of item 59, further comprising:
[Item 61]
61. A method according to clause 59 or 60, wherein the respective criteria include criteria met when the electronic device is configured to capture media items at a resolution of 4000 horizontal pixels or greater.
[Item 62]
62. The method of any one of items 59 to 61, wherein the respective criteria include criteria that are met when the electronic device is configured to operate in portrait mode at a predetermined zoom level.
[Item 63]
63. The method of any one of items 59 to 62, wherein the respective criteria include criteria met when at least one camera of the one or more cameras fails to maintain focus for a predetermined period of time.
[Item 64]
said input corresponding to said request to capture media with said one or more cameras is a first input corresponding to said request to capture media with said one or more cameras;
The method includes:
detecting a second input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the second input corresponding to the request to capture media with the one or more cameras;
following determining that the electronic device is configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on additional content settings;
capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras; and capturing the first representation of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the representation of at least the portion of visual content;
following determining that the electronic device is not configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on the additional content settings;
into the first portion of the field of view of the one or more cameras without capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the first representation of the corresponding visual content;
64. The method of any one of items 51-63, further comprising:
[Item 65]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 65. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 51-64.
[Item 66]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 51-64.
[Item 67]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 51 to 64;
An electronic device comprising:
[Item 68]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A non-transitory computer-readable storage medium containing instructions.
[Item 69]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device containing instructions.
[Item 70]
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
means for displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
means, including
means for detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and means for capturing a media item with the one or more cameras;
means for receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; means for displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device comprising:
[Item 71]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; and displaying
detecting that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; ceasing to display the first portion;
A method, including
[Item 72]
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
maintaining a display of at least a second portion of the representation of the captured media;
72. The method of item 71, comprising
[Item 73]
displaying the representation of the captured media at a first location on the display device prior to ceasing to display the first portion of the representation;
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
displaying an animation that moves the representation of the captured media from the first position on the display device toward a second position on the display device corresponding to an edge of the display device;
73. The method of item 71 or 72, comprising
[Item 74]
the representation of the captured media is displayed at a third location on the display device, the method comprising:
Stop displaying at least a portion of the second representation of the captured media while maintaining display of the camera user interface while the second representation of the captured media is being displayed. detecting user input corresponding to a request to
At least the second representation of the captured media while maintaining display of the camera user interface in response to detecting the request to stop displaying at least a portion of the second representation. ceasing to display the portion;
74. The method of any one of items 71-73, comprising
[Item 75]
from a fourth position on the display device corresponding to an edge of the display device, after stopping displaying the first portion of the representation, different from the fourth position on the display device; receiving user input corresponding to movement of the contact to the fifth position;
in response to receiving user input corresponding to moving the contact from the fourth position on the display device corresponding to the edge of the display device to the fifth position on the display device. , redisplaying the first portion of the representation;
75. The method of any one of items 71-74, further comprising:
[Item 76]
detecting user input corresponding to a request to display an enlarged representation of the captured media while the representation of the captured media is being displayed;
displaying, via the display device, an enlarged representation of the captured media in response to detecting user input corresponding to the selection of the representation of the captured media;
76. The method of any one of items 71-75, further comprising:
[Item 77]
receiving a request to redisplay the camera user interface while the camera user interface is not being displayed;
displaying a second instance of the camera user interface including a second representation of captured media in response to receiving the request to redisplay the camera user interface;
77. The method of any one of items 71-76, further comprising:
[Item 78]
the representation of the captured media is displayed at a fifth location on the display device, the method comprising:
Controlling a plurality of camera settings to the fifth position after stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface. to display affordances to
78. The method of any one of items 71-77, further comprising:
[Item 79]
capturing media corresponding to the field of view of the one or more cameras includes capturing a sequence of images;
79. The method of any one of items 71-78, wherein displaying the representation of the captured media comprises playing at least a portion of the captured sequence of images comprising at least two images. .
[Item 80]
80. The method of item 79, wherein the predetermined period of time is based on the duration of the captured sequence of images.
[Item 81]
receiving user input corresponding to a request to display options for sharing the captured media while displaying the representation of the captured media;
displaying a user interface for sharing the captured media in response to receiving the user input corresponding to the request to display options for sharing the captured media;
81. The method of any one of items 71-80, further comprising:
[Item 82]
82. Method according to item 81, wherein the user interface for sharing the captured media includes multiple options for sharing the captured media.
[Item 83]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 71-82.
[Item 84]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 71-82.
[Item 85]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 71 to 82;
An electronic device comprising:
[Item 86]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
A non-transitory computer-readable storage medium containing instructions.
[Item 87]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
An electronic device containing instructions.
[Item 88]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via said display device, said camera user interface including a camera display area containing a representation of the field of view of said one or more cameras;
means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; means for displaying a
means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; means for stopping displaying the first portion;
An electronic device comprising:
[Item 89]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. By constructing
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; and
A method, including
[Item 90]
In response to detecting at least a first portion of the first input,
Providing a first tactile output in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. ,
90. The method of item 89, further comprising:
[Item 91]
In response to detecting at least a second portion of the first input,
Captured in response to a request to capture media in accordance with determining that a second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. 91. A method according to item 89 or 90, further comprising displaying a visual indication of said boundary of said media.
[Item 92]
while the visual indication is being displayed and in response to detecting at least a third portion of the first input;
After the first contact has been maintained at the first position for the threshold amount of time, following a determination that the third portion of the first input includes movement of the first contact, said movement of one contact having a first magnitude and a first direction, and modifying the appearance of said visual indication based on said first magnitude and said first direction;
92. The method of item 91, further comprising:
[Item 93]
In response to detecting at least a first portion of the first input,
the one indicated by the visual indication in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time; displaying an animation comprising reducing the size of a portion of said representation of said field of view of said camera;
93. The method of item 91 or 92, further comprising
[Item 94]
while the visual indication is being displayed and in response to detecting at least a fourth portion of the first input;
size a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with determining that the fourth portion of the first input includes liftoff of the first contact; displaying an animation including growing;
94. The method of any one of items 91-93, further comprising:
[Item 95]
A first portion of the representation of the field of view of the one or more cameras is indicated as selected by the visual indication of the boundary of the media; a second portion of the representation is not indicated as selected by the visual indication of the boundary of the media;
95. The method of any one of items 91-94, wherein the second portion is visually distinct from the first portion.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio includes:
to capture media at a predetermined aspect ratio according to said movement of said first contact to said second position having a first magnitude and/or direction of movement within a first range of movement; configuring an electronic device;
according to said movement of said first contact to said second position having a second magnitude and/or direction of movement not within said first range of movement; configuring the electronic device to capture media in an aspect ratio based on size and/or orientation;
96. The method of any one of items 90-95, comprising
[Item 97]
97. The method of claim 96, wherein configuring the electronic device to capture media at the predetermined aspect ratio includes generating a second tactile output via one or more tactile output devices. the method of.
[Item 98]
Prior to detecting the first input, the electronic device is configured to capture media using a first camera mode, the method comprising:
In response to detecting the first input,
determining that the first input does not include maintaining the first contact at the first position for the threshold amount of time; and the first input exceeding a first movement threshold. configuring the electronic device to capture media using a second camera mode different from the first camera mode, according to the determination that
98. The method of any one of items 89-97, further comprising
[Item 99]
The camera user interface further includes an indication that the electronic device is configured to operate in a first media capture mode, the method comprising:
according to detecting a fourth input comprising detecting continuous movement of a fourth contact in a second direction over the camera display area;
displaying controls for adjusting characteristics associated with media capture behavior;
99. The method of any one of items 89-98, further comprising:
[Item 100]
In response to detecting the first input,
of the one or more cameras corresponding to the first location, according to determining that the first input includes detecting the first contact at the first location for less than the threshold amount of time. adjusting focus settings, including configuring the electronic device to capture media with content-based focus settings at positions within a field of view;
99. The method of any one of items 89-99, further comprising
[Item 101]
In response to detecting the first input,
a second input at a third location not corresponding to a predetermined portion of the camera display area, the first input indicating at least the portion of the border of the media to be captured in response to the request to capture media; a content-based first exposure at a location within the field of view of the one or more cameras corresponding to the third location, according to a determination comprising maintaining the first contact for a threshold amount of time of configuring the electronic device to capture media in settings;
101. The method of any one of items 89-100, further comprising:
[Item 102]
after configuring the electronic device to capture media with the first exposure setting based on content at a location within the field of view of the one or more cameras corresponding to the third location; of the representation of the field of view of the one or more cameras causing the content at the position within the field of view of the one or more cameras corresponding to the position to no longer be within the field of view of the one or more cameras. detecting a change; and
continuing to configure the electronic device to capture media at the first exposure setting in response to detecting the change;
102. The method of item 101, further comprising:
[Item 103]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 89-102.
[Item 104]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 89-102.
[Item 105]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 89 to 102;
An electronic device comprising:
[Item 106]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; A non-transitory computer-readable storage medium that contains standards for
[Item 107]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; electronic devices, including standards that are
[Item 108]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. means for detecting a first input including a first touch at each position;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. a means for configuring
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; means, including criteria for
An electronic device comprising:
[Item 109]
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media.
[Item 110]
displaying a media capture affordance; and
detecting a first input corresponding to the media capture affordance;
In response to detecting the first input,
capturing media at the first zoom level in accordance with determining that the first input was detected while the first camera user interface was displayed;
capturing media at the second zoom level in accordance with determining that the first input was detected while the second camera user interface was displayed;
110. The method of item 109, further comprising:
[Item 111]
displaying the first camera user interface includes displaying a first representation of the field of view of the one or more cameras;
the first representation is displayed in the first camera orientation at the first zoom level;
displaying the second camera user interface includes displaying a second representation of the field of view of the one or more cameras;
111. Method according to item 109 or 110, wherein the second representation is displayed with the second camera orientation at the second zoom level.
[Item 112]
The first orientation is portrait, the first representation is a portion of the field of view of the one or more cameras, the second orientation is landscape, the second representation is , the entire field of view of the one or more cameras.
[Item 113]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
displaying the first representation to a third representation of the field of view of the one or more cameras in response to receiving the request to change the first zoom level to the third zoom level. transposing, wherein the third representation is the orientation of the first camera and the third zoom level;
113. The method of item 111 or 112, further comprising
[Item 114]
displaying a zoom toggle affordance while displaying the first representation of the field of view of the one or more cameras;
detecting a second input corresponding to the selection of the zoom toggle affordance, the selection of the zoom toggle affordance being for a request to change the first zoom level to a fourth zoom level;
replacing the display of the first representation with a fourth representation of the field of view of the one or more cameras in response to detecting the second input, the fourth representation comprising: the orientation of the first camera and the fourth zoom level;
113. The method of any one of items 111-113, further comprising:
[Item 115]
115. The method of item 114, wherein the zoom toggle affordance is displayed in the first camera user interface and the second camera user interface.
[Item 116]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level;
replacing the display of the first representation with a fifth representation of the field of view of the one or more cameras, the fifth representation being in the orientation of the first camera and the third representation is the zoom level of
116. The method of any one of items 111-115, further comprising:
[Item 117]
the one or more cameras include a first camera and a second camera separate from the first camera;
The set of auto-zoom criteria is such that the electronic device is displaying in the first camera user interface a representation of the field of view of the first camera and a representation of the field of view of the second camera. 117. A method according to any one of items 109 to 116, including criteria that are met when not displaying .
[Item 118]
118. The method of any one of items 109-117, wherein the set of auto-zoom criteria includes criteria met when the electronic device is not in a video capture mode of operation.
[Item 119]
119. The method of any one of items 109 to 118, wherein the set of auto-zoom criteria includes criteria met when the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is higher than the second zoom level, the method comprising:
detecting a change in orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface;
displaying the first camera user interface on the display device in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation;
120. The method of any one of items 109-119, further comprising:
[Item 121]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 109-120.
[Item 122]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 109-120.
[Item 123]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 109 to 120;
An electronic device comprising:
[Item 124]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and a camera, the one or more programs comprising:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
A non-transitory computer-readable storage medium containing instructions.
[Item 125]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
An electronic device containing instructions.
[Item 126]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
means for detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; means for displaying a second camera user interface for capturing media;
An electronic device comprising:
[Item 127]
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a media capture user interface that includes displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; updating the representation of the field of view of the one or more cameras using
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
A method, including
[Item 128]
The variable frame rate criteria include criteria met when ambient light in the field of view of the one or more cameras is below a threshold, prior to detecting the change in the field of view of the one or more cameras. , wherein the representation of the field of view of the one or more cameras is updated at a third frame rate, the method comprising:
the one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that the variable frame rate criteria are not met; maintaining said updating of said representation of said field of view of
128. The method of item 127, further comprising:
[Item 129]
129. The method of item 128, wherein the variable frame rate criteria include criteria met when flash mode is inactive.
[Item 130]
Displaying the media capture user interface includes:
displaying an indication that a variable frame rate mode is active in accordance with determining that the variable frame rate criteria are met;
displaying the media capture user interface without the indication that the variable frame rate mode is active following a determination that the variable frame rate criteria are not met;
129. The method of any one of items 127-129, comprising
[Item 131]
the representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the first frame rate; displayed with an intensity of 1,
said representation of said field of view of said one or more cameras updated based on said detected change in said field of view of said one or more cameras at said second frame rate lower than said first frame rate. is displayed on the display device at a second luminance that is visually brighter than the first luminance.
[Item 132]
132. The method of any one of items 127-131, wherein the second frame rate is based on the amount of ambient light in the field of view of the one or more cameras below a respective threshold.
[Item 133]
133. The method of any one of items 127-132, wherein the detected change comprises detected movement, and wherein the second frame rate is based on the amount of the detected movement.
[Item 134]
133. Any of items 127 to 133, wherein the movement criteria include criteria met when the detected change in the field of view of the one or more cameras corresponds to movement of the electronic device greater than a movement threshold. The method according to item 1.
[Item 135]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 127-134.
[Item 136]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 127-134.
[Item 137]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 127 to 134;
An electronic device comprising:
[Item 138]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
A non-transitory computer-readable storage medium containing instructions.
[Item 139]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. An electronic device comprising instructions for updating the representation of the field of view of the one or more cameras based on the detected change in the field of view.
[Item 140]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
means for detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
means and
An electronic device comprising:
[Item 141]
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface;
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
including
A method, including
[Item 142]
obtaining an indication that low light conditions are no longer met while displaying the control for adjusting the capture duration;
Stopping displaying, via the display device, the control for adjusting the capture duration in response to obtaining the indication;
142. The method of item 141, further comprising:
[Item 143]
Obtaining an indication that low light conditions have been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the control for adjusting the capture duration. When,
displaying the control for adjusting the capture duration concurrently with the representation of the field of view of the one or more cameras in response to obtaining the indication;
143. The method of item 141 or 142, further comprising
[Item 144]
144. The method of any one of items 141-143, wherein the low light conditions comprise conditions met when a flash mode is inactive.
[Item 145]
145. The method of any one of items 141-144, wherein the control for adjusting the capture duration is a slider.
[Item 146]
Displaying the camera user interface includes:
concurrently with the representation of the field of view of the one or more cameras, displaying a media capture affordance that, when selected, initiates the capture of media using the one or more cameras;
146. The method of any one of items 141-145, comprising
[Item 147]
displaying a first indication of a first capture duration while displaying the controls for adjusting the capture duration;
the first indication of the first capture duration in response to receiving a request to adjust the control that adjusts the capture duration from the first capture duration to a second capture duration; with a display of a second indication of the second capture duration;
147. The method of item 146, further comprising:
[Item 148]
the representation of the field of view of the one or more cameras is a first representation of the field of view of the one or more cameras, the method comprising:
in response to receiving the request to adjust the control that adjusts the capture duration from the first capture duration to the second capture duration;
replacing a display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and be visually distinct from the representation of 1;
148. The method of item 147, further comprising:
[Item 149]
receiving a request to capture media while displaying the second indication of the second capture duration;
the second capture duration in response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predetermined capture duration that deactivates a low light capture mode; Initiating media capture via the one or more cameras based on a duration different than time;
149. The method of item 147 or 148, further comprising
[Item 150]
receiving a request to capture media while displaying the second indication of the second capture duration;
initiating media capture via the one or more cameras based on the second capture duration in response to receiving the request to capture media;
149. The method of item 147 or 148, further comprising
[Item 151]
stopping displaying the representation of the field of view of the one or more cameras in response to receiving the request to capture media;
151. The method of item 150, further comprising:
[Item 152]
the control for adjusting the capture duration is displayed in a first color, the method comprising:
displaying the control for adjusting the capture duration in a second color different from the first color in response to receiving the request to capture media;
152. The method of item 150 or 151, further comprising
[Item 153]
Displaying a first animation moving a third indication of a third capture value to the second indication of the second capture duration in response to receiving the request to capture media. When,
After displaying the first animation, displaying a second animation that moves the second indication of the second capture duration to the third indication of the third capture value. and the duration of the second animation corresponds to the duration of the second capture duration and is different than the duration of the first animation;
153. The method of any one of items 150-152, further comprising:
[Item 154]
providing a first tactile output while displaying the first animation;
providing a second tactile output while displaying the second animation;
154. The method of item 153, further comprising:
[Item 155]
Capturing the media based on the second capture duration after starting to capture the media;
155. The method of any one of items 150-154, further comprising:
[Item 156]
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture second media based on the second capture duration after capturing the first media;
initiating capture of the second media based on the second capture duration in response to receiving the request to capture the second media based on the second capture duration;
After initiating capture of the second media based on the second capture duration and before the second capture duration elapses, receiving a request to end capturing the second media. When,
In response to receiving the request to end capturing the second media,
terminating the capture of the second media based on the second capture duration;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a pre-captured representation of the second media. When,
156. The method of item 155, further comprising:
[Item 157]
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture a third media based on the second capture duration after capturing the first media;
Initiating capture of the third media based on the second capture duration in response to receiving the request to capture third media based on the second capture duration;
After initiating capture of the third media based on the second capture duration,
according to determining that a detected change in the field of view of the one or more cameras exceeds a movement criterion;
terminating the capture of the third media;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a representation of the third media captured prior to termination. When,
157. The method of item 155 or 156, further comprising
[Item 158]
responsive to receiving the request to capture media, replacing the indication of affordance requesting to capture media with an indication of affordance to terminate media capture;
158. The method of any one of items 155-157, further comprising:
[Item 159]
displaying a first representation of the first media captured at a first capture time after initiating capture of the media;
After displaying the first representation of the first media, the display of the first representation of the first media is captured at a second capture time after the first capture time. substituting a representation of a second representation of a first medium, wherein the second representation is visually distinct from the first representation of the first medium;
159. The method of any one of items 155-158, further comprising:
[Item 160]
160. The method of clause 159, wherein the replacing the display of the first representation of the first medium with the display of the second representation of the first medium occurs after a predetermined period of time.
[Item 161]
displaying the camera user interface concurrently with the control for adjusting the capture duration in accordance with a determination that a low light condition has been met; a low light capture status indicator indicating a low light capture mode status is active including displaying
The method includes:
receiving a first selection of the low light capture condition indicator while displaying the low light capture condition indicator;
In response to receiving a first selection of the low light condition capture indicator,
ceasing to display the control for adjusting the capture duration while maintaining display of the low-light capture status indicator;
updating the appearance of the low light capture state indicator to indicate that the state of the low light capture mode is inactive;
161. The method of any one of items 141-160, comprising
[Item 162]
Displaying the camera user interface comprises displaying the low light capture status indicator indicating that the low light capture mode is inactive in accordance with a determination that a low light condition has been met, while displaying the low light capture status indicator. receiving a second selection of the light capture status indicator;
The method includes:
Redisplaying the control for adjusting the capture duration in response to receiving the second selection of the low light capture status indicator;
162. The method of item 161, comprising
[Item 163]
162. The method of item 161, comprising configuring the electronic device not to perform a flash operation in response to receiving the first selection of the low light capture condition indicator.
[Item 164]
164. The method of any one of items 161-163, wherein the low light condition comprises a condition that is met when the low light capture state indicator is selected.
[Item 165]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 141-164.
[Item 166]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 141-164.
[Item 167]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 141 to 164;
An electronic device comprising:
[Item 168]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
A non-transitory computer-readable storage medium, including
[Item 169]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
electronic devices, including
[Item 170]
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
means for displaying a camera user interface via the display device in response to receiving the request to display the camera user interface, comprising:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
means, including
An electronic device comprising:
[Item 171]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
simultaneously displaying the
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A method, including
[Item 172]
flash settings are configured to automatically determine if the amount of light within the field of view of the one or more cameras meets low-light environment criteria and the flash operation is set to active or inactive; following the determination that the flash operating criteria are met, including the criteria met when
the flash state indicator indicates that the state of the flash operation is active;
172. The method of item 171, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 173]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
following determining that the amount of light within the field of view of the one or more cameras is within a first predetermined range and that a flash setting is set to active;
the flash state indicator indicates that the state of the flash operation is active;
the low light capture indicator indicates that the state of the low light capture mode is inactive;
following determining that the amount of light within the field of view of the one or more cameras is within the first predetermined range and that the flash setting is not set to active;
the flash state indicator indicates that the state of the flash operation is inactive;
173. Method according to item 171 or 172, wherein the low light capture indicator indicates that the state of the low light capture mode is active.
[Item 174]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
according to determining that the amount of light within the field of view of the one or more cameras is within a second predetermined range different from the first predetermined range, and the flash setting is set to inactive. ,
the flash state indicator indicates that the state of the flash operation is inactive;
the low light capture indicator indicates that the state of the low light capture mode is active;
determining that the amount of light within the field of view of the one or more cameras is within the second predetermined range different from the first predetermined range and the flash setting is not set to inactive according to
the flash state indicator indicates that the state of the flash operation is active;
174. The method of item 173, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 175]
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the flash status indicator while indicating;
In response to receiving the selection of the flash status indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture indicator to indicate that the state of the low light capture mode is active;
175. The method of any one of items 171-174, further comprising:
[Item 176]
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the low light capture state indicator while indicating;
In response to receiving the selection of the low light capture condition indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
176. The method of any one of items 171-175, further comprising:
[Item 177]
displaying controls for adjusting a capture duration in accordance with determining that the state of the low-light capture mode is active;
177. The method of any one of items 171-176, further comprising:
[Item 178]
receiving a request to change the control from a first capture duration to a second capture duration while displaying the control for adjusting the capture duration;
in response to receiving the request to change the control from the first capture duration to the second capture duration;
the low light capture mode to indicate that the state of the low light capture mode is inactive upon determining that the second capture duration is a predetermined capture duration that deactivates the low light capture mode; updating the light capture status indicator;
178. The method of item 177, further comprising:
[Item 179]
detecting a change in the state of a low-light capture mode while displaying the controls for adjusting the capture duration;
in response to detecting the change in state of the low light capture mode;
ceasing display of the control for adjusting the capture duration upon determining that the state of low-light capture mode is inactive;
178. The method of item 177, further comprising:
[Item 180]
displaying within the camera user interface a first representation of the field of view of the one or more cameras;
receiving a request to capture a first media of the field of view of the one or more cameras while the state of low light capture mode is active;
in response to receiving said request to capture a first media while said state of low light capture mode is active;
initiating capture of the first media;
maintaining the display of the first representation of the field of view of the one or more cameras for the duration of the capture of the first media;
179. The method of any one of items 171-179, further comprising:
[Item 181]
receiving a request to capture a second media of the field of view of the one or more cameras while the state of low light capture mode is active;
initiating capture of the second media in response to receiving the request to capture the second media while the state of low light capture mode is active;
concurrently displaying a representation of the second media within the camera user interface while capturing the second media;
181. The method of any one of items 171-180, further comprising:
[Item 182]
displaying within the camera user interface a second representation of the field of view of the one or more cameras;
receiving a request to capture a third media of the field of view of the one or more cameras while the state of low light capture mode is active;
initiating capture of the third media in response to receiving the request to capture the third media while the state of the low light capture mode is active;
ceasing to display representations derived from the field of view of the one or more cameras within the camera user interface while capturing the third media;
182. The method of any one of items 171-181, further comprising:
[Item 183]
Displaying the flash status indicator within the camera user interface indicating the status of the flash operation following a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criteria. matter,
183. The method of any one of items 171-182, further comprising:
[Item 184]
184. The method of any one of items 171-183, wherein the state of the flash operation and the state of the low light capture mode are mutually exclusive.
[Item 185]
185. The method of any one of items 171-184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state and an inactive state.
[Item 186]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
wherein upon determining that the amount of light within the field of view of the one or more cameras is within a third predetermined range, the flash status indicator indicates that the status of flash operation is available; 185. The method of any one of 171 or 172 and 174-185.
[Item 187]
the control for adjusting the capture duration is a first control for adjusting the capture duration, the method comprising:
receiving a selection of the low light capture state indicator while the flash state indicator indicates that the state of flash operation is available;
In response to receiving a selection of said low light capture condition indicator,
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
displaying a second control for adjusting the capture duration;
186. The method of item 186, further comprising:
[Item 188]
A first low-light capture status indicator provides a first visual representation of the first capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. including
Upon determining that ambient light within the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture condition indicator outputs the second light of the first capture duration. 188. The method of any one of items 171-187, which does not include a visual representation of 1.
[Item 189]
in response to detecting the amount of light within the field of view of the one or more cameras, according to the determination that the amount of light within the field of view of the one or more cameras meets low light environment criteria;
upon determining that ambient light within the field of view of the one or more cameras is within a third predetermined range, the low light capture state indicator indicates that the low light capture mode state is active; including a second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, the low light capture state indicator indicates that the state of the low light capture mode is active. and not including the second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, the low light capture status indicator indicates that the low light capture mode status is available. , the low-light capture state indicator indicating that the state of the low-light capture mode is active and including the second visual representation of the first capture duration; and the low-light capture mode. the low-light capture state indicator indicating that a state is active and not including the second visual representation of the first capture duration; and indicating that the low-light capture mode state is available. the low-light capture state indicator is visually distinct from each other,
188. The method of any one of paragraphs 171-188, further comprising:
[Item 190]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 171-189.
[Item 191]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 171-189.
[Item 192]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 171 to 189;
An electronic device comprising:
[Item 193]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A non-transitory computer-readable storage medium containing instructions.
[Item 194]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
An electronic device containing instructions.
[Item 195]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device;
means for detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
means and
An electronic device comprising:
[Item 196]
a method,
In an electronic device equipped with a display device,
displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
including
detecting a first user input corresponding to selection of the first affordance while displaying the media editing user interface;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjusting the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; displaying a control;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A method, including
[Item 197]
the adjustable control for adjusting the first editable parameter includes a first static portion and a first variable portion;
said adjustable control for adjusting said second editable parameter includes said first static portion and a second variable portion;
displaying the adjustable controls for adjusting the second editable parameter at the respective locations within the media editing user interface;
maintaining, on the display device, the display of the first static portion at the respective location within the media editing user interface;
196. The method of item 196, comprising
[Item 198]
The adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter produce one or more visual characteristics when adjusted to the same relative position. 198. The method of item 196 or 197, with sharing.
[Item 199]
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the first editable parameter;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the second editable parameter;
199. The method of any one of paragraphs 196-198, further comprising
[Item 200]
the first editable parameter is an auto-tuning editable parameter;
From item 196, adjusting the current value of the first editable parameter according to the first gesture includes adjusting current values of a plurality of editable parameters including the second editable parameter. 199. A method according to any one of 199.
[Item 201]
The media editing user interface includes a plurality of editable parameter current value indicators, the plurality of editable parameter current value indicators comprising:
a value indicator corresponding to the second editable parameter of the representation of the visual media;
a value indicator corresponding to a third editable parameter of the representation of the visual media;
including
Adjusting current values of the plurality of editable parameters includes:
adjusting the current value of the third editable parameter;
updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter;
updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter;
199. The method of item 199, comprising
[Item 202]
detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter for editing the representation of the visual media;
displaying the third affordance in response to detecting the third user input;
202. The method of any one of paragraphs 196-201, further comprising:
[Item 203]
displaying the adjustable control for adjusting the first editable parameter and displaying the adjustable control for adjusting the first editable parameter while detecting the third user input; visually restraining,
203. The method of item 202, further comprising:
[Item 204]
the third user input is received while the adjustable control adjusting the first editable parameter is displayed;
Displaying the third affordance includes:
within the media editing user interface in accordance with a determination that a first set of criteria are met, including criteria met when the fourth editable parameter is a first type parameter; displaying an adjustable control for adjusting the fourth editable parameter at a location of
displaying the adjustable controls for adjusting the fourth editable parameter at the respective locations within the media editing user interface in accordance with the determination that the first set of criteria are not met; to stop and
203. The method of item 203, comprising:
[Item 205]
205. Claimed in any one of clauses 196-204, wherein the first user input is a tap input on the first affordance and the second user input is a tap input on the second affordance. described method.
[Item 206]
a first indication of whether the representation of the visual media is currently being adjusted based on the first editable parameter while displaying the representation of the visual media and the first affordance; displaying an editable parameter status indicator;
detecting a fourth user input corresponding to selection of the first affordance;
In response to detecting the fourth user input,
following determining that the presentation of the visual media is currently being adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media that was not adjusted based on the first editable parameter;
following determining that the representation of the visual media is not currently adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter;
206. The method of any one of paragraphs 196-205, further comprising:
[Item 207]
Adjusting the current value of the first editable parameter according to the first gesture includes:
generating a tactile output in accordance with determining that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter;
ceasing to generate tactile output upon determining that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter;
207. The method of any one of items 196-206, comprising
[Item 208]
visualizing the adjustable control that adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter; to emphasize
208. The method of any one of paragraphs 196-207, further comprising:
[Item 209]
A third editable parameter current value indicator visually surrounds at least a portion of the first affordance, and a fourth editable parameter current value indicator visually surrounds the second affordance. 209. The method of any one of paragraphs 196-208, wherein
[Item 210]
the electronic device includes one or more cameras;
said representation of said visual media is a representation of a field of view of said one or cameras;
the media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that enables application of lighting effects and depth effects;
wherein the first editable parameter is lighting effect intensity;
209. The method of any one of items 196-199 and 202-209, wherein the second editable parameter is depth effect strength.
[Item 211]
the first editable parameter corresponds to a lighting effect parameter;
the media editing user interface includes a value indicator corresponding to the lighting effect parameter;
Adjusting the current value of the first editable parameter according to the first gesture comprises adjusting the lighting effect parameter based on the adjusted current value of the first editable parameter. 209. The method of any one of items 196-199 and 202-209, comprising:
[Item 212]
the first editable parameter is a visual filter effect strength;
Adjusting the current value of the first editable parameter according to the first gesture includes:
replacing a display of the representation of visual media with a representation of the visual media adjusted based on the current value of the visual filter effect strength;
209. The method of any one of items 196-199 and 202-209, comprising
[Item 213]
196. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 196. 213. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of 212.
[Item 214]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 196-212.
[Item 215]
an electronic device,
a display device and means for performing the method of any one of items 196 to 212;
An electronic device comprising:
[Item 216]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A non-transitory computer-readable storage medium containing instructions.
[Item 217]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
An electronic device containing instructions.
[Item 218]
an electronic device,
a display device;
means for displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
means, including
means for detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; means for displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; means for detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; means for adjusting the current value of the first editable parameter according to the gesture of
means for detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; means for displaying controls;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; means for detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; means for adjusting the current value of the second editable parameter according to the gesture of
An electronic device comprising:
[Item 219]
a method,
In an electronic device equipped with a display device,
displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
and
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
A method, including
[Item 220]
The first user interface includes:
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to horizontal perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a first affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the horizontal perspective distortion of
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to vertical perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a second affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the vertical perspective distortion of
220. The method of item 219, comprising
[Item 221]
while displaying the first affordance and the second affordance, to indicate a current adjustment amount to rotate visual content within the first representation of the first visual media when selected; simultaneously displaying a third affordance that updates the indication of the adjustable control;
220. The method of item 220, further comprising:
[Item 222]
the perspective distortion corresponds to horizontal perspective distortion,
222. Any one of items 219 through 221, wherein the amount of horizontal perspective distortion of the first representation of the first visual medium is different than the amount of horizontal perspective distortion of the second representation of the first visual medium. The method described in section.
[Item 223]
the perspective distortion corresponds to vertical perspective distortion,
223. Any one of items 219 through 222, wherein the amount of vertical perspective distortion of the first representation of the first visual medium is different than the amount of vertical perspective distortion of the second representation of the first visual medium. The method described in section.
[Item 224]
The first representation includes a first apparent horizontal line, and the method includes:
while the first representation of the first visual medium includes a degree of rotation with respect to a visual boundary within the first representation of the first visual medium; detecting an input that changes the degree of rotation of a representation of 1;
responsive to detecting an input that changes the degree of rotation of the first representation of the first visual medium by an amount determined based on the input; and rotating
224. The method of any one of paragraphs 219-223, further comprising:
[Item 225]
The first representation includes first visual content of the first visual medium, the method comprising:
a set of one or more inputs that change the first visual content of the first representation while the first representation of the first visual media includes the first visual content; detecting;
in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media, displaying a fourth representation of the first visual media that includes second visual content of the first visual media that is different from the visual content;
224. The method of any one of items 219-224, comprising:
[Item 226]
The first user interface includes auto-tuning affordances, the method comprising:
detecting an input corresponding to the auto-tuning affordance;
In response to detecting the input corresponding to the auto-tuning affordance,
automatically adjusting current values of two or more parameters of the first visual medium selected from the group consisting of a horizontal perspective distortion parameter, a vertical perspective distortion parameter, and a rotation parameter;
displaying a fifth representation of the first visual media based on the adjusted current values of the adjusted two or more parameters;
225. The method of any one of paragraphs 219-225, further comprising:
[Item 227]
one or more of a second set responsive to a request to display a third user interface different from the first user interface while displaying the first user interface including the auto-adjusting affordance. detecting the input of
Displaying a third user interface on the display device in response to detecting the second set of one or more inputs, comprising:
displaying a representation of at least a portion of the second visual content in the second visual medium;
displaying the auto-adjusting affordance in accordance with determining that the second visual medium includes additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium; ,
Displaying the auto-adjusting affordance in accordance with determining that the second visual medium does not include additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium. and
including
226. The method of item 226, further comprising:
[Item 228]
said first representation of said first visual media does not include additional visual content outside a predetermined spatial boundary of the captured visual content also when said first visual media was captured; a representation of a first portion of the visual content in a first visual medium;
The second representation of the first visual media is at least of the additional visual content outside a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured. 228. The method of any one of items 219-227, comprising a portion.
[Item 229]
said first representation of said first visual media being displayed in a first aspect ratio;
the first user interface includes an aspect ratio affordance;
The method includes:
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
displaying a sixth representation of the first visual media at a second aspect ratio different from the first aspect ratio in response to detecting the user input corresponding to the aspect ratio affordance;
228. The method of any one of paragraphs 219-228, further comprising:
[Item 230]
said first representation of said first visual media being displayed in a first orientation;
the first aspect ratio has a first horizontal aspect ratio value and a first vertical aspect ratio value;
the first user interface includes an aspect ratio affordance;
The method includes:
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media in response to detecting the user input corresponding to the aspect ratio affordance; displaying visual feedback showing a portion of the first visual media corresponding to the third aspect ratio of
a second horizontal aspect ratio value equal to the first vertical aspect ratio value;
a second vertical aspect ratio value equal to the first horizontal aspect ratio value;
having
230. The method of item 229, further comprising:
[Item 231]
Displaying the first user interface includes:
along with one or more controls for adjusting perspective, cropping, and/or rotation of the image according to determining that the first visual media includes multiple frames of content corresponding to different times; displaying adjustable controls for adjusting which frames of content corresponding to the visual media are displayed;
230. The method of any one of items 219-230, comprising:
[Item 232]
a visual boundary is displayed around a first portion of a seventh representation of the first visual medium, the seventh representation corresponding to a first time within the first visual medium;
The method includes:
while displaying the adjustable controls for adjusting which frames of content corresponding to the first visual media are displayed, corresponding time-based frames of the first visual media corresponding to respective times; detecting a request to select a representation;
in response to detecting the request to select the time-based representation of the first visual media corresponding to respective times;
displaying an eighth representation of the first visual medium corresponding to a second time within the first visual medium;
maintaining display of a visual border displayed around a first portion of the eighth representation of the first visual media;
232. The method of item 231, further comprising:
[Item 233]
The first representation of the first visual media is displayed at a first zoom level, the method comprising:
detecting a request to change a zoom level of a representation of the first visual media while displaying the first representation of the first visual media;
a ninth zoom level of the first visual media at a second zoom level different from the first zoom level in response to detecting the request to change the zoom level of the representation of the first visual media; displaying a representation of
232. The method of any one of paragraphs 219-232, further comprising:
[Item 234]
said first representation of said first visual media includes perspective distortion based on a first camera lens shape and/or a first camera position;
234. according to any one of items 219 to 233, wherein the second representation of the first visual media is adjusted to reduce the perspective distortion based on the shape of the camera lens and/or the position of the camera; described method.
[Item 235]
said adjustable control corresponds to a control for correcting perspective distortion;
The method includes:
responsive to detecting the user input including the gesture directed at the adjustable control, adjusting the amount of perspective distortion correction according to the direction and/or magnitude of the gesture directed at the adjustable control; to update
234. The method of any one of paragraphs 219-234, further comprising:
[Item 236]
219. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising item 219. 399. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 235 and 399.
[Item 237]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 219-235 and 399.
[Item 238]
an electronic device,
a display device and means for performing the method of any one of items 219 to 235 and 399;
An electronic device comprising:
[Item 239]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
A non-transitory computer-readable storage medium containing instructions.
[Item 240]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device containing instructions.
[Item 241]
an electronic device,
a display device;
means for displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
and simultaneously displaying
means for detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
means for displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device comprising:
[Item 242]
a method,
In an electronic device having a display device,
displaying a media capture user interface via the display device, comprising:
including displaying a representation of the field of view of one or more cameras;
displaying controls for adjusting the capture duration for capturing media while the low-light camera mode is active;
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
including
A method, including
[Item 243]
receiving the single request to capture the image corresponding to the field of view of the one or more cameras;
in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras;
Capturing the first plurality of images over the first capture duration in accordance with determining that the electronic device is configured to capture the first plurality of images over the first capture duration. and
Capturing the second plurality of images over the second capture duration in accordance with determining that the electronic device is configured to capture the second plurality of images over the second capture duration. and
243. The method of item 242, further comprising:
[Item 244]
244. The method of item 243, wherein the amount of images in the first plurality of images is different than the amount of images in the second plurality of images.
[Item 245]
to capture the first plurality of images over the first capture duration in response to receiving the single request to capture the images corresponding to the field of view of the one or more cameras; generating a first composite image including content of at least a portion of the first plurality of images according to the determination that the electronic device is configured to
to capture the second plurality of images over the second capture duration in response to receiving the single request to capture the images corresponding to the field of view of the one or more cameras; generating a second composite image including content of at least a portion of the second plurality of images according to the determination that the electronic device is configured to
245. The method of item 243 or 244, further comprising:
[Item 246]
detecting a first stability of the electronic device while displaying the indication that the control is set to the first capture duration;
In response to detecting the first stability of the electronic device,
According to determining that the first stability of the electronic device is above a first stability threshold,
displaying an indication that the control is set to a third capture duration that is longer than the first capture duration;
configuring the electronic device to capture a third plurality of images over the third capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
246. The method of any one of paragraphs 242-245, further comprising:
[Item 247]
indicating the state of the low-light camera mode while the low-light camera mode is active; and
comprising a visual representation of the first capture duration upon determining that a capture duration display criterion is met;
not including the visual representation of the first capture duration according to a determination that a capture duration display criterion is not met;
displaying a first low light capture status indicator;
246. The method of any one of paragraphs 242-246, further comprising:
[Item 248]
248. The method of item 247, wherein the capture duration display criteria include criteria met when ambient light within the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
Before said low light camera mode is active,
indicating that the low-light camera mode state is active, and a third capture duration, in accordance with determining that ambient light within the field of view of the one or more cameras is within a second predetermined range. displaying a second low-light capture status indicator comprising a visual representation of
indicating that the low-light camera mode state is active, and the third capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. displaying a third low-light capture status indicator that does not include the visual representation of time;
A fourth low-light capture status indicator indicating that the low-light camera mode status is available upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range. wherein the second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually distinct from one another. ,
the second low-light capture state indicator, the third low-light capture state indicator, and the ceasing to display the fourth low light capture status indicator;
248. The method of any one of paragraphs 242-248, further comprising:
[Item 250]
The control for adjusting the capture duration for capturing media comprises:
a first state corresponding to a first recommended capture duration value;
a second state corresponding to a second recommended capture duration value;
a third state corresponding to a third recommended capture duration value;
249. The method of any one of paragraphs 242-249, wherein the method is configured to be adjustable to .
[Item 251]
displaying the control for adjusting the capture duration for capturing media;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state according to determining that the set of first capture duration criteria are met; , the first capture duration is the second recommended capture duration value;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state in accordance with determining that the set of second capture duration criteria are met; , the second capture duration is the second recommended capture duration value;
250. The method of item 250, comprising:
[Item 252]
displaying the control for adjusting the capture duration for capturing media;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the first set of capture duration criteria are met; a recommended capture duration value of 3 is the third capture duration value;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the set of second capture duration criteria are met; 3 recommended capture duration values are a fourth capture duration value different from the third capture duration value;
252. The method of item 250 or 251, comprising:
[Item 253]
The second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value, the method comprising:
detecting a first change in a current condition of the electronic device while displaying the controls for adjusting a capture duration for capturing media;
in response to detecting the first change in the current condition of the electronic device;
Upon determining that the first current condition satisfies a third capture duration criterion is met,
A seventh capture wherein the second recommended capture duration value is a seventh capture duration value, the fifth capture duration value being different than the seventh capture duration value a duration value, and
setting the third recommended capture duration value to an eighth capture duration value that is different from the sixth capture duration value;
changing to at least one of
253. The method of any one of items 250-252, further comprising:
[Item 254]
The set of first capture duration criteria comprises:
ambient light detected within the field of view of the one or more cameras;
movement detected within the field of view of the one or more cameras;
a second stability of the electronic device;
254. The method of any one of items 250-253, including criteria based on one or more parameters selected from the group consisting of:
[Item 255]
Displaying the media capture user interface includes displaying affordances for capturing media concurrently with the representation of the field of view of the one or more cameras, the method comprising:
a first comprising selecting the affordance to capture media while displaying the affordance to capture media and displaying the indication that the control is set to a third capture duration; detecting an input, wherein the selection of the affordances to capture media corresponds to the single request to capture an image corresponding to the field of view of the one or more cameras;
initiating capture of a fourth plurality of images over the first capture duration in response to detecting the first input corresponding to the affordance of capturing media;
254. The method of any one of items 250-254, further comprising:
[Item 256]
the indication that the control is set to the third capture duration is a first indication;
said first indication being displayed at a first location on said control corresponding to said third capture duration;
The method includes:
An animation that moves the first indication from the first position on the control to a second position on the control in response to detecting the first input corresponding to the affordance to capture media. and displaying
redisplaying the first indication at the first location on the control in response to displaying the first indication at the second location;
256. The method of item 255, further comprising:
[Item 257]
the indication that the control is set to the third capture duration is a second indication;
the second indication is displayed at a third location on the control corresponding to the third capture duration;
The method includes:
In response to detecting the first input corresponding to the affordance of capturing media,
displaying an animation that moves the second indication from the third position on the control to a fourth position on the control;
detecting a second change in a current condition of the electronic device while displaying the animation;
In response to detecting said second change in current conditions,
the third capture duration in response to determining that a second current condition satisfies a fourth capture duration criterion and in response to displaying the first indication at the fourth location; displaying the second indication at a fifth location on the control corresponding to a different fourth capture duration;
256. The method of item 256, further comprising:
[Item 258]
changing a visual appearance of the media-capturing affordance in response to detecting the first input corresponding to the media-capturing affordance;
258. The method of any one of items 255-257, further comprising:
[Item 259]
capturing media wherein a display of the affordance to capture the media is visually distinct from the affordance to capture the media in response to detecting the first input corresponding to the affordance to capture the media. with the indication of the affordance that ends,
258. The method of any one of items 255-258, further comprising:
[Item 260]
posing the electronic device when the media capture is initiated and capturing media via the display device in response to detecting the first input corresponding to the affordance to capture the media; displaying a visual indication of the difference between the pose of the electronic device at a first time after initiating
259. The method of any one of items 255-259, further comprising:
[Item 261]
after initiating capture of the first plurality of images for the first capture duration and prior to detecting the end of capturing the first plurality of images for the first capture duration;
displaying one or more low light mode animations in accordance with determining that the first capture duration exceeds a threshold;
ceasing to display the one or more low light mode animations upon determining that the first capture duration does not exceed a threshold;
256. The method of item 255, further comprising:
[Item 262]
While capturing said media,
from a plurality of images captured by the one or more cameras prior to the first time at a first time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a third composite image based on at least some content of
from a plurality of images captured by the one or more cameras prior to the second time at a second time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a fourth composite image based on at least some content of
the first time is different from the second time,
the representation of the third composite image is visually distinct from the representation of the fourth composite image;
and
262. The method of any one of paragraphs 242-261, further comprising:
[Item 263]
A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 242 263. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 262 to 262.
[Item 264]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 242-262.
[Item 265]
an electronic device,
a display device and means for performing the method of any one of items 242 to 262;
An electronic device comprising:
[Item 266]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
displaying said controls for adjusting the capture duration for capturing media, including
A non-transitory computer-readable storage medium containing instructions.
[Item 267]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
displaying said controls for adjusting the capture duration for capturing media, including
An electronic device containing instructions.
[Item 268]
an electronic device,
a display device;
means for displaying a media capture user interface via the display device, comprising:
displaying a representation of the field of view of one or more cameras;
means and
means for displaying controls for adjusting the capture duration for capturing media while the low light camera mode is active;
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
means, including
An electronic device comprising:
[Item 269]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after initiating media capture;
A method, including
[Item 270]
269. The method of item 269, wherein the set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a first capture duration that exceeds a threshold duration. .
[Item 271]
The visual indication is
a first set of one or more shapes representing the pose of the electronic device when the media capture is initiated, displayed at a first location on the media capture user interface; a set of one or more shapes;
a second set of one or more shapes representing the pose of the electronic device at the first time after starting media capture, displayed at a second location; a set of one or more shapes;
270. A method according to item 269 or 270, comprising a set of shapes comprising
[Item 272]
said first set of one or more shapes comprising a first color;
272. The method of item 271, wherein the second set of one or more shapes includes a second color different from the first color.
[Item 273]
detecting a change in pose of the electronic device at a second time after initiating capture;
said second set at a third location on said media capture user interface that is different than said second location on said media capture user interface in response to detecting said change in said pose of said electronic device; displaying one or more shapes of
273. The method of item 271 or 272, further comprising
[Item 274]
In response to detecting the change in the pose of the electronic device,
the difference between the first position of the first set of one or more shapes and the third position of the second set of one or more shapes is within a first threshold difference ceasing to display at least one of the first set of one or more shapes or the second set of one or more shapes, according to the determination of
a difference between the first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference maintaining display of the first set of one or more shapes or the second set of one or more shapes, according to a determination that the
274. The method of any one of paragraphs 271-273, further comprising:
[Item 275]
detecting a change in pose of the electronic device at a second time after initiating capture;
In response to detecting the change in the pose of the electronic device,
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after the media capture is initiated is a second threshold difference generating a tactile output in accordance with the determination that it is within;
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after media capture is initiated is the second threshold difference. ceasing to generate the tactile output in accordance with the determination that the
274. The method of any one of paragraphs 269-274, further comprising:
[Item 276]
Upon determination that a set of guidance criteria has been met,
displaying a representation corresponding to a request to stabilize the electronic device while capturing media;
275. The method of any one of paragraphs 269-275, further comprising:
[Item 277]
ceasing to display the visual indication of the difference via the display device following a determination that the set of guidance criteria are not met;
276. The method of any one of paragraphs 269-276, further comprising:
[Item 278]
The visual indication is displayed at the first time, the method comprising:
detecting the end of the capture of the media at a third time different than the first time;
ceasing to display the visual indication via the display device in response to detecting the end of the capture of the media;
278. The method of any one of paragraphs 269-277, further comprising:
[Item 279]
269. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising item 269. 279. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 1-278.
[Item 280]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 269-278.
[Item 281]
an electronic device,
a display device and means for performing the method of any one of items 269 to 278;
An electronic device comprising:
[Item 282]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
A non-transitory computer-readable storage medium containing instructions.
[Item 283]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device containing instructions.
[Item 284]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device comprising:
[Item 285]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a set of second respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including
A method, including
[Item 286]
286. The method of item 285, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a first request to adjust focus settings of the electronic device while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
causing the electronic device to focus on a second respective object within the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device. configuring;
while the electronic device is configured to focus on the second respective object within the field of view of the one or more cameras;
A set of third respective criteria, including criteria met when the second respective objects within the fields of view of the one or more cameras are a third distance from the one or more cameras. ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance, according to determining that is satisfied;
286. The method of item 285 or 286, further comprising.
[Item 288]
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras in said first visual appearance; detecting a first change in distance between the one or more cameras;
in response to detecting the first change in distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of fourth respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a fourth distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
287. The method of any one of paragraphs 285-287, further comprising:
[Item 289]
Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance;
stopping displaying in the second region at least a portion of a third portion of the field of view of the one or more cameras that was previously displayed in the second region;
288. The method of any one of items 285-288, comprising
[Item 290]
Ceasing to display the second portion of the field of view of the one or more cameras within the second region in the first visual appearance includes a second visual appearance superimposed on the second region. 289. The method of any one of items 285-289, comprising increasing the opacity of the blackened layer of 1.
[Item 291]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a second request to adjust focus settings of the electronic device while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance;
responsive to receiving the second request to adjust the focus setting of the electronic device to focus on a third respective object within the field of view of the one or more cameras; configuring;
while the electronic device is configured to focus on the third respective object within the field of view of the one or more cameras;
a set of fifth respective criteria comprising criteria met when said third respective objects within said fields of view of said one or more cameras are a fifth distance from said one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance within the second region, according to the determination that it is satisfied;
290. The method of any one of paragraphs 285-290, further comprising:
[Item 292]
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras is not displayed in said first visual appearance; detecting a second change in distance between the one or more cameras;
in response to detecting the second change in the distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of sixth respective criteria comprising criteria met when the first respective objects within the field of view of the one or more cameras are a sixth distance from the one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance within the second region, according to the determination that it is satisfied;
292. The method of any one of paragraphs 285-291, further comprising:
[Item 293]
Displaying the second portion of the field of view of the one or more cameras in the second region in the first visual appearance comprises: 293. The method of any one of items 285-292, comprising displaying a fourth portion of the field of view of the one or more cameras that was not previously displayed in the .
[Item 294]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance includes a second black superimposed on the second region. 294. The method of any one of paragraphs 285-293, comprising reducing the opacity of the layer.
[Item 295]
wherein the first visual appearance includes a first visual prominence, and displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
displaying an animation that progressively transitions the second portion of the field of view of the one or more cameras from a second visual appearance to the first visual appearance, wherein the second visual appearance is , having a second visual prominence different from the first visual prominence;
295. The method of any one of paragraphs 285-294, comprising
[Item 296]
said first portion being displayed in a third visual appearance different from said first visual appearance;
The method includes:
Capturing media while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance receiving a request to
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
content from the first portion of the field of view of the one or more cameras and the second portion of the field of view of the one or more cameras after capturing the media corresponding to the field of view of the one or more cameras; displaying a representation of the media, including content from part 2;
286. The method of item 285, further comprising:
[Item 297]
297. The method of any one of items 285-296, wherein at least a first portion of the second region is above the first region.
[Item 298]
298. The method of any one of items 285-297, wherein at least a second portion of the second region is below the second region.
[Item 299]
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
299. The method of any one of paragraphs 285-298, further comprising:
[Item 300]
300. The method of any one of items 285-299, wherein the second region is visually distinct from the first region when displayed in the first visual appearance.
[Item 301]
from item 285, wherein the set of first respective criteria includes criteria met when the first respective object is the closest object identified within the field of view of the one or more cameras; 300. The method of any one of clauses 300.
[Item 302]
302. Any of items 285 through 301, wherein the set of first respective criteria includes criteria met when the first respective object is at a position of focus within the field of view of the one or more cameras. or the method described in paragraph 1.
[Item 303]
the first region is separated from the second region by a boundary;
303. Any one of items 285 through 302, wherein the set of first respective criteria includes criteria met when a detected visual tear adjacent to the boundary is above a visual tear threshold level. The method described in .
[Item 304]
the set of first respective criteria includes criteria met when the first portion of the field of view of the one or more cameras is a portion of the field of view of a first camera;
303, wherein said set of second respective criteria includes criteria met when said second portion of said field of view of said one or more cameras is part of the field of view of a second camera; The method according to any one of .
[Item 305]
receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the one or more cameras and the one or more cameras in response to receiving the request to edit the captured media; displaying a representation of the captured media including at least a portion of the content from the second portion of the field of view;
305. The method of any one of paragraphs 285-304, further comprising:
[Item 306]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 285-305.
[Item 307]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 285-305.
[Item 308]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 285 to 305;
An electronic device comprising:
[Item 309]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside and visually distinct from the first region, wherein:
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a set of second respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
display the camera user interface,
A non-transitory computer-readable storage medium containing instructions.
[Item 310]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside and visually distinct from the first region, wherein:
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a set of second respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
display the camera user interface,
An electronic device containing instructions.
[Item 311]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a set of second respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
means and
An electronic device comprising:
[Item 312]
a method,
An electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera,
displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A method, including
[Item 313]
313. The method of item 312, wherein the first portion of the field of view of the second camera is different than the second portion of the field of view of the second camera.
[Item 314]
displaying the representation of the second portion of the field of view of the first camera in the first region at the second zoom level; and displaying the representation of the second portion of the field of view of the first camera in the second region at the second zoom level. and while displaying the representation of the second portion of the field of view of the second camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a third receiving a second request to increase to the zoom level;
in response to receiving the second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level;
According to determining that the third zoom level is within the first zoom value range,
displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first region;
displaying a representation of a fourth portion of the field of view of the first camera at the third zoom level in the second region;
314. The method of item 312 or 313, further comprising:
[Item 315]
displaying the representation of the third portion of the field of view of the first camera in the first region at the third zoom level; and displaying the representation of the third portion of the field of view of the first camera in the second region at the third zoom level. and, while displaying the representation of the fourth portion of the field of view of the first camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth receiving a third request to increase to the zoom level;
in response to receiving the third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level;
According to determining that the fourth zoom level is within a second range of zoom values,
displaying a representation of a fifth portion of the field of view of the third camera excluding at least a subset of the third portion of the field of view of a third camera at the fourth zoom level in the first region; and
without displaying in the second region a representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in the region of displaying a representation of a fifth portion of the field of view of a camera;
314. The method of item 314, further comprising:
[Item 316]
the fifth portion of the field of view of the third camera excluding at least the subset of the third portion of the field of view of the third camera in the first region at the fourth zoom level; and in the second region the representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in said second region without displaying while displaying the representation of the fifth portion of the field of view of the first camera overlapping with the subset of receiving a fourth request to increase to a fifth zoom level;
in response to receiving said fourth request to increase said zoom level of said representation of said portion of said field of view of said one or more cameras to said fifth zoom level;
According to determining that the fifth zoom level is within a third zoom value range,
displaying a representation of a sixth portion of the field of view of the third camera at the fifth zoom level in the first region;
displaying a representation of a seventh portion of the field of view of the third camera at the fifth zoom level in the second region;
316. The method of item 315, further comprising:
[Item 317]
displaying the representation of the sixth portion of the field of view of the third camera in the first region at the fifth zoom level; and displaying the representation of the sixth portion of the field of view of the third camera in the second region at the fifth zoom level. and, while displaying the representation of the seventh portion of the field of view of the third camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth receiving a first request to down zoom level;
in response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level;
following determining that the sixth zoom level is within a fourth range of zoom values for display within the second region;
a representation of an eighth portion of the field of view of the third camera that excludes at least a subset of the third portion of the field of view of the third camera at the sixth zoom level in the first region; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said eighth portion of said field of view of said third camera at said sixth zoom level in the region of displaying a representation of an eighth portion of the field of view of a camera;
316. The method of item 316, further comprising:
[Item 318]
in said first region, at said sixth zoom level, without displaying said representation of at least said subset of said eighth portion of said field of view of said first camera in said first region; displaying the representation of the eighth portion of the field of view of the third camera overlapping at least a subset of the eighth portion of the field of view of the first camera; while displaying said representation of said eighth portion of said field of view of said first camera excluding at least said subset of said eighth portion of said field of view of said first camera at a zoom level of , receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level;
in response to receiving the second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level;
According to determining that the seventh zoom level is within a fifth zoom value range,
displaying a representation of a ninth portion of the field of view of the first camera at the seventh zoom level in the first region;
displaying a representation of a tenth portion of the field of view of the first camera at the seventh zoom level in the second region;
318. The method of item 317, further comprising:
[Item 319]
318. The method of any one of clauses 312-318, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
319. The method of any one of items 312-319, further comprising:
[Item 321]
A request to capture media while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level. and receiving
responsive to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media being captured at the first zoom level at the first zoom level; and content from the first portion of the field of view of the second camera at the first zoom level;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and the displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the second camera at a first zoom level;
313. The method of item 312, further comprising:
[Item 322]
configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera 321, wherein the one or more programs comprise instructions for performing the method of any one of items 312-321. Temporary computer-readable storage medium.
[Item 323]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 312-321.
[Item 324]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than said field of view of said first camera; means for performing the method of any one of items 312 to 321;
An electronic device comprising:
[Item 325]
configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera a non-transitory computer-readable storage medium storing one or more programs, the one or more programs comprising:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A non-transitory computer-readable storage medium containing instructions.
[Item 326]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
An electronic device containing instructions.
[Item 327]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more cameras;
means for displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
means, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; means for receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
means and
An electronic device comprising:
[Item 328]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
Receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed at the first zoom affordance; and
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A method, including
[Item 329]
Maintaining visual characteristics of the second zoom affordance and modifying visual characteristics of the first zoom affordance in accordance with the determination that the first gesture is the gesture directed at the first zoom affordance. and
maintaining the visual properties of the first zoom affordance and the visual properties of the second zoom affordance in accordance with the determination that the first gesture is the gesture directed at the second zoom affordance; and
328. The method of item 328, further comprising:
[Item 330]
Changing the visual property of the first zoom affordance includes:
resizing the first zoom affordance from a first size to a second size, wherein the second size of the first zoom affordance is the current size of the second zoom affordance that is different from, and
changing the color of the first zoom affordance from a first color to a second color, wherein the second color of the first zoom affordance is the current color of the second zoom affordance; that is different from
329. The method of item 329, comprising one or more of
[Item 331]
performing a second gesture directed at the first zoom affordance while displaying the second representation of the at least a portion of the field of view of the one or more cameras at the second zoom level; to receive;
in response to receiving the second gesture directed at the first zoom affordance;
a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, in accordance with determining that the first zoom affordance satisfies a first respective criterion; and displaying
Upon determining that the first zoom affordance satisfies a second respective criterion,
Ceasing to display the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level;
maintaining display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level;
330. The method of any one of paragraphs 328-330, further comprising:
[Item 332]
The first gesture is a first type gesture, and the method includes:
receiving a third gesture directed at the first zoom affordance, the third gesture being a second type gesture different from the first type gesture; ,
responsive to receiving the third gesture directed at the first zoom affordance, displaying a control for changing the zoom level of the first currently displayed representation; said control for changing said zoom level of said currently displayed representation of includes a first indication of a current zoom level of said first currently displayed representation;
receiving a fourth gesture directed at the control for changing the zoom level while displaying the control for changing the zoom level of the first currently displayed representation; and
in response to receiving the fourth gesture directed at the control for changing the zoom level;
displaying a second indication of a fifth zoom level on the control for changing the zoom level;
displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level;
332. The method of any one of paragraphs 328-331, further comprising:
[Item 333]
The first indication of the zoom level of the first currently displayed representation is a selected zoom on the control for changing the zoom level of the first currently displayed representation. 333. The method of item 332, displayed at a position corresponding to the level.
[Item 334]
334. Method according to item 332 or 333, wherein the control for changing the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
Displaying the control for changing the zoom level of the first currently displayed representation causes displaying of the plurality of zoom affordances to the zoom level of the first currently displayed representation. 334. The method of any one of clauses 332-334, including replacing the display of the control to change the .
[Item 336]
the third gesture includes movement in a first direction;
335. The method according to any one of items 332 to 335, wherein said fourth gesture comprises movement in a second direction different from said first direction.
[Item 337]
detecting liftoff of the fourth gesture after receiving the fourth gesture directed at the control to change the zoom level;
After detecting liftoff of the fourth gesture,
ceasing displaying the control for changing the zoom level upon determining that there has been no gesture directed at the control for changing the zoom level within a predetermined time frame;
336. The method of any one of paragraphs 332-336, further comprising:
[Item 338]
displaying the control for changing the zoom level of the first currently displayed representation;
displaying a plurality of visual indicators simultaneously on an adjustable control, wherein each zoom level of said plurality of zoom levels corresponding to said plurality of zoom affordances is a different corresponding visual indicator of said plurality of visual indicators; that is represented by
338. The method of any one of items 332-337, comprising
[Item 339]
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed at at least one of the plurality of zoom affordances and is directed at a first portion of the first representation; configuring the electronic device to focus on the position of
338. The method of any one of paragraphs 328-338, further comprising:
[Item 340]
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed to at least one of the plurality of zoom affordances and is directed to a second portion of the first representation; ceasing to configure the electronic device to focus on the position of
339. The method of any one of paragraphs 328-339, further comprising:
[Item 341]
said second representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a first camera of said one or more cameras;
said third representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a second camera of said one or more cameras;
340. The method of any one of items 328-340, wherein the first camera is different than the second camera.
[Item 342]
displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level;
displaying a portion of the second representation in a first visual appearance in accordance with determining that the second zoom level is a sixth zoom level;
rendering a portion of the second representation a second visual appearance different from the first visual appearance in accordance with determining that the second zoom level is a seventh zoom level different from the sixth zoom level; and display with
342. The method of any one of paragraphs 328-341, comprising:
[Item 343]
the plurality of zoom affordances includes a third zoom affordance;
The method includes:
receiving a request to change the zoom level of the second currently displayed representation;
in response to receiving the request to change the zoom level of the second currently displayed representation to an eighth zoom level;
Replacing the display of the first zoom affordance with the display of a fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within the first zoom value range. When,
replacing the display of the second zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a second zoom value range. and
replacing the display of the third zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a third zoom value range. and
342. The method of any one of paragraphs 328-342, further comprising:
[Item 344]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 328-343.
[Item 345]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 328-343.
[Item 346]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 328 to 343;
An electronic device comprising:
[Item 347]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A non-transitory computer-readable storage medium containing instructions.
[Item 348]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
An electronic device containing instructions.
[Item 349]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, said plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
means for receiving, while displaying the plurality of zoom affordances, a first gesture directed at one of the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
means and
An electronic device comprising:
[Item 350]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode; and
ceasing displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; and
A method, including
[Item 351]
351. The method of item 350, wherein the second set of camera setting affordances are settings that adjust image capture for the second camera mode.
[Item 352]
352. Method according to item 350 or 351, wherein the second set of camera setting affordances is different than the first set of camera setting affordances.
[Item 353]
The first set of camera setting affordances is one of a flash setting affordance, an image capture setting affordance, an aspect ratio camera setting affordance, a filter setting camera setting affordance, a high dynamic range imaging camera setting affordance, and a low light camera setting affordance. 353. The method of any one of items 350-352, including one or more.
[Item 354]
Detecting the first gesture includes detecting a first contact directed at the camera user interface, the method comprising:
detecting completion of the first gesture before detecting lift-off of the first contact while detecting the first gesture;
providing a tactile output in response to detecting completion of the first gesture prior to detecting lift-off of the first contact;
354. The method of any one of paragraphs 350-353, further comprising:
[Item 355]
detecting a third gesture directed at the camera user interface while displaying the camera user interface;
in response to detecting the third gesture directed at the camera user interface;
In accordance with determining that the second set of camera setting affordances were being displayed when the third gesture was detected,
configuring the electronic device to capture media in a third camera mode;
displaying a third set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
According to determining that the first plurality of camera mode affordances were being displayed when the third gesture was detected,
a second plurality indicating different camera operating modes of the one or more cameras in the first position without displaying the second set of camera setting affordances and the third set of camera setting affordances; and configuring the electronic device to capture media in the first camera mode and the third camera mode, the second plurality of camera mode affordances comprising: different from the first plurality of camera mode affordances;
354. The method of any one of paragraphs 350-354, further comprising:
[Item 356]
Displaying the third set of camera setting affordances at the first location displays an animation of the third set of camera setting affordances replacing the first set of camera setting affordances. 356. The method of item 355, comprising
[Item 357]
wherein the representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras, the method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a second representation of a second portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media via a first type of camera; wherein said second portion of said field of view does not include a portion of said first portion of said field of view of said one or more cameras;
356. The method of any one of paragraphs 350-356, further comprising:
[Item 358]
wherein said representation of said field of view of said one or more cameras is a third representation of a third portion of said field of view of said one or more cameras, said method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a fourth representation of a fourth portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media using a second type of camera; wherein said fourth portion of said field of view of said one or more cameras includes a portion of said field of view of said one or more cameras that is not in said third portion of said field of view of said one or more cameras. including
358. The method of any one of paragraphs 350-357, further comprising:
[Item 359]
said representation of said field of view of said one or more cameras is a fifth representation of a fifth portion of said field of view of said one or more cameras;
the fifth representation is displayed at a second location on the display device;
The method includes:
in response to receiving the second gesture directed at the camera user interface;
Following determining that the electronic device is configured to capture media using a third type of camera,
moving the fifth representation from the second position on the display device to a third position on the display device;
359. The method of item 357 or 358, further comprising
[Item 360]
the first camera mode is a portrait mode;
the representation of the field of view of the one or more cameras is displayed at a first zoom level;
The method includes:
while displaying the first plurality of camera mode affordances;
displaying affordances and zoom affordances for controlling lighting effects operation;
receiving a fourth gesture directed at the zoom affordance while displaying the zoom affordance;
displaying a representation of the field of view of the one or more cameras at a second zoom level in response to receiving the fourth gesture directed at the zoom affordance;
359. The method of any one of paragraphs 350-359, further comprising:
[Item 361]
The first plurality of camera mode affordances includes:
a first camera mode affordance that, when selected, causes the electronic device to capture media in the first camera mode in response to a request to capture media;
a second camera mode affordance that, when selected, causes the electronic device to capture media in the second camera mode in response to a request to capture media;
360. The method of any one of items 350-360, comprising
[Item 362]
362. The method of item 361, wherein while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed adjacent to the second camera mode affordance.
[Item 363]
Prior to detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordances are selected from the first 363. Method according to item 361 or 362, displayed with an indication that camera mode is active.
[Item 364]
detecting a fifth gesture directed at the camera user interface while displaying the second set of camera setting affordances at the first location;
in response to detecting the fifth gesture directed at the camera user interface;
displaying a third plurality of camera mode affordances indicative of different camera operating modes of the one or more cameras;
the third plurality of camera mode affordances includes the second camera mode affordance;
the second camera mode affordance is displayed with an indication that the second camera mode is active;
and
364. The method of item 362 or 363, further comprising:
[Item 365]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 350-364.
[Item 366]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 350-364.
[Item 367]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 350 to 364;
An electronic device comprising:
[Item 368]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
A non-transitory computer-readable storage medium containing instructions.
[Item 369]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying at the first position a first set of camera setting affordances, the settings for adjusting image capture in a first camera mode, the first set of camera setting affordances;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
An electronic device containing instructions.
[Item 370]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
means, including
means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first position;
means and
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; means for receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
means and
An electronic device comprising:
[Item 371]
a method,
In an electronic device equipped with a display device,
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receiving a request to display the representation;
in response to receiving the request to display the representation of the previously captured media item;
Displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content in accordance with determining that automatic media correction criteria are met. When,
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. displaying;
A method, including
[Item 372]
displaying, via the display device, a camera user interface prior to receiving the request to display the representation of the previously captured media item, the camera user interface comprising:
a first region containing a representation of the first portion of the field of view of the one or more cameras;
A second region containing a representation of the second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras comprises the first a second region visually distinct from said representation of a portion of
including
372. The method of item 371, further comprising:
[Item 373]
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item in accordance with the determination that the automatic media correction criteria are met;
Displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item following a determination that an automated media correction criterion has not been met; two auto-adjusting affordances are visually distinct from the first auto-adjusting affordance; and
373. The method of item 371 or 372, further comprising
[Item 374]
displaying the first auto-adjusting affordance and, via the display device, displaying the representation of the previously captured media item including the combination of the first content and the second content; receiving a first input corresponding to a selection of the first auto-tuning affordance while in;
including the first content and excluding the second content via the display device in response to receiving the first input corresponding to selection of the first auto-adjusting affordance; displaying the representation of the previously captured media item;
373. The method of item 373, further comprising:
[Item 375]
Displaying the second auto-adjusting affordance and displaying, via the display device, the representation of the previously captured media item including the first content and excluding the second content. while receiving a second input corresponding to the selection of the second auto-tuning affordance;
the previous including the combination of the first content and the second content via the display device in response to receiving the second input corresponding to selection of the second auto-adjusting affordance; displaying said representation of a media item captured in
373. The method of item 373, further comprising:
[Item 376]
the previously captured media item is an image;
said representation of said previously captured media item comprising said combination of said first content and said second content includes an edge portion;
376. according to any one of items 371 to 375, wherein said representation of said previously captured media item including said first content and not including said second content further excludes said edge portion; described method.
[Item 377]
the previously captured media item is a video;
said representation of said previously captured media item including said combination of said first content and said second content includes a first amount of movement;
the representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different than the first amount of movement; 376. The method of any one of items 371-376.
[Item 378]
the previously captured media item includes an identifiable object;
said representation of said previously captured media item including said combination of said first content and said second content includes a portion of said identifiable object;
Any of items 371-377, wherein the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object. The method according to item 1.
[Item 379]
The automatic media correction criteria are one or more visions by which the previously captured media items can be corrected using the second content from the second portion of the field of view of the one or more cameras. 379. A method according to any one of items 371 to 378, including a second criterion that is met when it is determined to contain an aspect.
[Item 380]
379. The method of clause 379, wherein the automatic media correction criteria include a third criterion met when the second criterion was met before the previously captured media item was displayed.
[Item 381]
the first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with determining that automatic media correction criteria are met; displaying a third auto-adjusting affordance that, when selected, causes the electronic device to perform a first action concurrently with the representation of the previously captured media item comprising a combination of;
380. The method of any one of paragraphs 371-380, further comprising:
[Item 382]
382. Claim any one of items 371-381, wherein the automatic media correction criteria include criteria that are met when the auto-apply setting is enabled and not met when the auto-apply setting is disabled. described method.
[Item 383]
383. The method of any one of items 371-382, wherein the automatically applied setting is a user configurable setting.
[Item 384]
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
Concurrently selecting the representation of the previously captured media item that includes the first content and does not include the second content in accordance with a determination that a first set of criteria is met. displaying a fourth auto-tuning affordance that, when received, causes the electronic device to perform a second action;
384. The method of any one of paragraphs 371-383, further comprising:
[Item 385]
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
concurrently with the representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that the first set of criteria is not met; displaying a non-selectable indicator;
385. The method of any one of paragraphs 371-384, further comprising:
[Item 386]
in response to receiving the request to display the representation of the previously captured media item;
displaying a content processing indicator in accordance with determining that the content processing criteria are met;
ceasing to display the content processing indicator in accordance with a determination that the content processing criteria are not met;
385. The method of any one of paragraphs 371-385, further comprising:
[Item 387]
ceasing display of the content processing indicator while displaying the content processing indicator and in accordance with a determination that the content processing criteria are no longer met;
386. The method of item 386, further comprising:
[Item 388]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; and according to a determination that the content processing criteria are no longer met, rendering the representation of the previously captured media item that includes the first content and does not include the second content to the first media item; replacing with the representation of the previously captured media item containing a combination of the content of and the second content;
386. The method of item 386, further comprising:
[Item 389]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; displaying a second representation of the previously captured media item that includes the first content and does not include the second content;
while displaying the second representation of the previously captured media item that includes the first content and does not include the second content, and the content processing criteria are no longer met; rendering the second representation of the previously captured media item, including the first content and excluding the second content, to the first content and the second content. replacing with a second representation of the previously captured media item that includes a combination of content;
386. The method of item 386, further comprising:
[Item 390]
including the first content and including the second content while displaying the representation of the previously captured media item including a combination of the first content and the second content; displaying an animation of the representation of the previously captured media item including a combination of the first content and the second content transitioning to the representation of the previously captured media item;
389. The method of any one of paragraphs 371-389, further comprising:
[Item 391]
combining the first content and the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content; displaying an animation of the representation of the previously captured media item that includes the first content and does not include the second content, transitioning to the representation of the previously captured media item that includes to do
390. The method of any one of paragraphs 371-390, further comprising:
[Item 392]
A media item that includes third content from the first portion of the field of view of one or more cameras and does not include fourth content from the second portion of the field of view of the one or more cameras. receiving a request to display a representation of
including third content from the first portion of the field of view of the one or more cameras and excluding fourth content from the second portion of the field of view of the one or more cameras; Additional media content outside the first portion of the field of view of the one or more cameras is available in response to receiving the request to display the representation of the previously captured media item. ceasing to display the indication that there is
392. The method of any one of paragraphs 371-391, further comprising:
[Item 393]
A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 371 393. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 1 to 392.
[Item 394]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 371-392.
[Item 395]
an electronic device,
a display device and means for performing the method of any one of items 371 to 392;
An electronic device comprising:
[Item 396]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
A non-transitory computer-readable storage medium containing instructions.
[Item 397]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
An electronic device containing instructions.
[Item 398]
an electronic device,
a display device;
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; means for receiving a request to display a representation;
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
An electronic device comprising means.
[Item 399]
236. any one of items 219 through 235, wherein the adjustable controls for selecting time-based representations of the first visual media corresponding to respective times are displayed at respective locations on the display device; described method.
[Item 400]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A method, including
[Item 401]
the media capture user interface includes a media capture affordance;
401. The method of item 400, wherein receiving the request to capture media includes detecting selection of the media capture affordance.
[Item 402]
displaying the visual indication of one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device;
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance following determining that the pose of the electronic device has changed in a second manner different from the first manner;
402. The method of item 400 or 401, comprising
[Item 403]
Displaying the visual indication simultaneously
displaying the visual indication having visual characteristics indicative of a first difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device;
displaying the visual indication having a visual characteristic that indicates a second difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device; the first difference and the second difference are different types of difference;
403. The method of any one of items 400-402, comprising:
[Item 404]
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture was initiated and a first portion of the visual indication representing the current pose of the electronic device. 2, and
In response to detecting movement of the electronic device at the first time after initiating media capture, displaying the visual indication may include moving the electronic device after initiating media capture. 404. The method of any one of items 400-403, comprising displaying at least one of the first portion and the second portion of the visual indication with an appearance that changes in response to a change in the pose. the method of.
[Item 405]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of rotation of the electronic device. 404. The method of any one of items 400-404, comprising displaying the portion of the visual indication rotated by a rotation amount of one.
[Item 406]
detecting rotational movement of the electronic device at a second time after initiating media capture while displaying the portion of the visual indication rotated by the first amount;
responsive to detecting rotational movement of the electronic device at the second time after initiating media capture, a second amount of rotation determined based on the amount of rotational movement detected; rotating the portion of the indication, wherein the second amount of rotation is different than the first amount of rotation;
406. The method of item 405, further comprising:
[Item 407]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of movement of the electronic device. 407. The method of any one of items 400-406, comprising displaying the portion of the visual indication having a skew amount of one.
[Item 408]
detecting movement of the electronic device at a third time after initiating media capture while displaying the portion distorted by the first skew amount;
displaying the portion having a second skew amount in response to detecting movement of the electronic device at the third time after starting media capture, wherein the second skew amount. is different from the first skew amount, and
408. The method of item 407, further comprising:
[Item 409]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on a position of the electronic device. 409. The method of any one of items 400-408, including displaying the portion of the visual indication at a position of .
[Item 410]
detecting translation of the electronic device at a fourth time after initiating media capture while displaying the portion of the visual indication at the first location;
responsive to detecting translation of the electronic device at the fourth time after initiating media capture, moving the visual indication to a second position determined based on translation of the electronic device; displaying a portion, wherein the second position is different than the first position;
409. The method of item 409, further comprising:
[Item 411]
410. The method of any one of items 400-410, wherein the visual indication indicates the magnitude of the one or more differences.
[Item 412]
at a first time the pose of the electronic device is different from the pose of the electronic device when media capture is initiated;
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture is initiated, displayed at a first location on the media capture user interface. ,
The visual indication is at a second location on the media capture user interface that is different than the first location on the media capture user interface, and a second location of the visual indication representing the current pose of the electronic device. 412. The method of any one of items 400-411, comprising parts 2.
[Item 413]
after displaying the first portion of the visual indication at the first location and displaying the second portion of the visual indication at the second location and while capturing the media. , detecting movement of the electronic device at a fifth time after initiating media capture;
In response to detecting movement of the electronic device at the fifth time after beginning media capture,
according to determining that the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts; displaying the first portion of the visual indication at the second location on the media user interface, wherein the first portion of the visual indication and the second portion of the visual indication; that the parts overlap each other;
413. The method of item 412, further comprising:
[Item 414]
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
414. The method of any one of items 400-413, wherein the portion of the displayed visual indication changes in response to movement of the electronic device being detected.
[Item 415]
detecting movement of the electronic device at a seventh time after beginning media capture;
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
ceasing displaying the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device does not exceed a second movement threshold;
415. The method of any one of paragraphs 400-414, further comprising:
[Item 416]
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
continuing to display the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device exceeds a second movement threshold;
416. The method of item 415, further comprising:
[Item 417]
417. The method of any one of items 400-416, wherein the set of guidance criteria includes criteria that are met when a low light mode is active.
[Item 418]
418. Any one of items 400-417, wherein the set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a capture duration greater than a threshold duration. The method described in .
[Item 419]
419. The method of any one of items 400-418, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras.
[Item 420]
detecting movement of the electronic device at an eighth time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the eighth time after beginning media capture,
stopping media capture in accordance with determining that the detected movement of the electronic device exceeds a second movement threshold;
419. The method of any one of paragraphs 400-419, further comprising:
[Item 421]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 400-420.
[Item 422]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 400-420.
[Item 423]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 400 to 420;
An electronic device comprising:
[Item 424]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A non-transitory computer-readable storage medium containing instructions.
[Item 425]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
An electronic device containing instructions.
[Item 426]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
means for detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
means and
An electronic device comprising:
[Item 427]
a method,
In a computer system having one or more cameras in communication with one or more display devices and one or more input devices,
displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode in accordance with determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A method, including
[Item 428]
the camera user interface includes selectable user interface objects for capturing media;
Disabling the selectable user interface object for capturing media while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold. is,
While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is above the threshold, the selectable user interface object for capturing media is enabled. 427. The method of item 427, wherein:
[Item 429]
according to the determining that the selectable user interface object for capturing media is disabled, the selectable user interface object for capturing media is displayed in a first visual appearance;
According to the determining that the selectable user interface object for capturing media is enabled, the selectable user interface object for capturing media has a second visual appearance different from the first visual appearance. 428. The method of item 428, displayed in a visual appearance.
[Item 430]
the camera user interface includes selectable user interface objects for capturing media;
Regardless of whether the available light exceeds the threshold while the camera preview is displayed at the second zoom level, the selectable user interface object for capturing media is enabled. 429. The method of any one of paragraphs 427-429, wherein
[Item 431]
displaying guidance to switch the zoom level while the camera preview is displayed at the first zoom level and in accordance with a determination that the available light is below the threshold;
430. The method of any one of paragraphs 427-430, further comprising:
[Item 432]
suppressing display of guidance to switch between zoom levels while the camera preview is displayed at the second zoom level, regardless of whether the amount of available light exceeds the threshold;
432. The method of any one of paragraphs 427-431, further comprising:
[Item 433]
displaying guidance to enable flash mode while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold;
432. The method of any one of paragraphs 427-432, further comprising:
[Item 434]
434. The method of any one of items 427-433, wherein the first zoom level is higher than the second zoom level.
[Item 435]
the computer system includes one or more depth sensors;
While the camera preview is being displayed at the first zoom level and in accordance with determining that the available light is below a threshold, the one or more depth sensors are adjusted to the first depth at a first accuracy. enabling determination of depth information for the field of view of the one or more cameras at one zoom level;
While the camera preview is being displayed at the second zoom level and upon determining that the available light is below a threshold, the one or more depth sensors are greater than the first accuracy. 435. The method of any one of items 427 to 434, facilitating the determination of depth information for the field of view of the one or more cameras at the second zoom level with a second accuracy.
[Item 436]
While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold, the selectable user interface object for changing the zoom level comprises: 436. The method of any one of items 427-435, including an indication corresponding to a low light capture mode.
[Item 437]
While the camera preview is displayed at the second zoom level, the selectable user interface object for changing the zoom level is selected regardless of whether the amount of available light exceeds the threshold. 437. The method of any one of items 427-436, not including an indication corresponding to low light capture mode.
[Item 438]
receiving a request to capture media while the low light capture mode is enabled;
initiating capture of multiple images for a capture duration in response to receiving the request to capture media;
After initiating capture of the plurality of images for the capture duration, generating a composite image including content of at least a portion of the plurality of images, the composite image being one of the plurality of images. being visually brighter than one or more;
438. The method of any one of paragraphs 427-437, further comprising:
[Item 439]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one A non-transitory computer-readable storage medium in communication with any of the above display devices and one or more input devices, the one or more programs comprising instructions for performing the method of any one of items 427-438. .
[Item 440]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise instructions to perform the method of any one of items 427-438;
computer system.
[Item 441]
a computer system,
439. One or more cameras, wherein the computer system communicates with one or more display devices and one or more input devices, and any one of items 427 to 438. a means for carrying out the method;
A computer system comprising:
[Item 442]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one in communication with one or more display devices and one or more input devices, the one or more programs comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A non-transitory computer-readable storage medium containing instructions.
[Item 443]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
including instructions,
computer system.
[Item 444]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
Means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
means for detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
means for changing the zoom level to a second zoom level upon determining that available light is below a threshold; means for enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A computer system comprising:
[Item 1]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
including
displaying the camera user interface without displaying a first control affordance associated with the first predefined condition while a first predefined condition is not met;
detecting a change in scene conditions within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
a current state of the first control affordance and a characteristic of the electronic device associated with the first control affordance in response to detecting the change in the conditions of the scene within the field of view of the one or more cameras; simultaneously displaying an indication of the status of
A method, including
[Item 2]
In response to detecting said change in conditions,
2. The method of item 1, further comprising displaying a second control affordance concurrently with the first control affordance upon determining that a second predetermined condition is met.
[Item 3]
In response to detecting said change in conditions,
displaying the first control affordance while displaying the second control affordance in accordance with a determination that the first predetermined condition is satisfied and the second predetermined condition is not satisfied; 3. The method of item 2, further comprising ceasing to display.
[Item 4]
When the amount of light within the field of view of the one or more cameras is below a first predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control flash operation. 4. The method of any one of items 1 to 3.
[Item 5]
of items 1 to 4, wherein when the electronic device is connected to a first type of accessory, the first predetermined condition is satisfied and the first control affordance is an affordance for controlling timer operation; A method according to any one of paragraphs.
[Item 6]
When the amount of light within the field of view of the one or more cameras falls below a second predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control low light capture mode. 6. The method according to any one of items 1 to 5, wherein
[Item 7]
when the electronic device is configured to capture an image in a first capture mode, the first predetermined condition is met and the first control affordance is an affordance for controlling lighting effect operation; 7. The method of any one of items 1 to 6, wherein the method is
[Item 8]
receiving a selection of the affordance for controlling the light effect operation while displaying the affordance for controlling the light effect operation;
the lighting effect that, when adjusted, adjusts the lighting effect applied to the representation of the field of view of the one or more cameras in response to receiving the selection of the affordance that controls the lighting effect operation; displaying affordances for modulating behavior;
8. The method of item 7, further comprising:
[Item 9]
(cancel).
[Item 10]
The characteristic has one or more active states and one or more inactive states, and displaying the indication indicates that the characteristic is in at least one of the one or more active states. 9. The method of any one of items 1 to 8, according to the determination of
[Item 11]
11. The method of any one of items 1-8 and 10, wherein the property is a first flash operation setting and the current state of the property is that flash operation is enabled.
[Item 12]
9. The method of any one of items 1-8, wherein the property is a second flash operation setting and the current state of the property is that flash operation is disabled.
[Item 13]
The property is a first image capture mode setting, the current state of the property is that the image capture mode is enabled, and the electronic device responds to a request to capture media. 13. The method of any one of items 1-8 and 10-12, wherein the method is configured to capture still images and video in response to an input.
[Item 14]
The property is a second image capture mode setting, the current state of the property is that the second image capture mode is enabled, and the electronic device requests to capture media. 14. The method of any one of items 1-8 and 10-13, configured to capture media using high dynamic range imaging effects in response to input corresponding to .
[Item 15]
The camera control area is displayed adjacent a first side of the display device and the indication is displayed adjacent a second side of the display device opposite the first side. 15. The method of any one of items 1-8 and 10-14.
[Item 16]
Any of items 2-8 and 10-15, wherein said representation of said field of view of said one or more cameras extends over a portion of said camera user interface including said first control affordance and/or said second control affordance. or the method described in paragraph 1.
[Item 17]
In response to displaying the first control affordance,
displaying a second indication associated with the first control affordance in accordance with determining that the first control affordance is of a first type;
determining that the first control affordance is of a second type different from the first type, and a second characteristic of the electronic device associated with the first control affordance is active displaying the second indication associated with the first control affordance in accordance with the determination;
determining that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control affordance is inactive Ceasing display of the second indication associated with the first control affordance in accordance with determining that a condition exists;
17. The method of any one of items 1-8 and 10-16, further comprising:
[Item 18]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more comprises instructions for performing the method of any one of items 1-8 and 10-17.
[Item 19]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 1-8 and 10-17.
[Item 20]
an electronic device,
a display device;
one or more cameras;
means for carrying out the method of any one of items 1-8 and 10-17;
An electronic device comprising:
[Item 21]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
displaying the camera user interface without displaying a first control affordance associated with the first predefined condition while a first predefined condition is not met;
detecting a change in scene conditions within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
a current state of the first control affordance and a characteristic of the electronic device associated with the first control affordance in response to detecting the change in the conditions of the scene within the field of view of the one or more cameras; Simultaneously display an indication of the status of
A non-transitory computer-readable storage medium containing instructions.
[Item 22]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
displaying the camera user interface without displaying a first control affordance associated with the first predefined condition while a first predefined condition is not met;
detecting a change in scene conditions within the field of view of the one or more cameras while displaying the camera user interface without displaying the first control affordance;
a current state of the first control affordance and a characteristic of the electronic device associated with the first control affordance in response to detecting the change in the conditions of the scene within the field of view of the one or more cameras; Simultaneously display an indication of the status of
An electronic device containing instructions.
[Item 23]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
means, including
means for displaying the camera user interface without displaying a first control affordance associated with the first predefined condition while a first predefined condition is not met;
means for detecting a change in conditions while displaying the camera user interface without displaying the first control affordance;
means for simultaneously displaying the first control affordance and an indication of a current state of a characteristic of the electronic device associated with the first control affordance in response to detecting the change in condition; ,
An electronic device comprising:
[Item 24]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
including
detecting a first gesture on the camera user interface while displaying the camera user interface;
modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
including
A method, including
[Item 25]
25. The method of claim 24, wherein the camera control region includes affordances displaying the plurality of camera setting affordances, and wherein the gesture of the second type is selection of the affordances displaying the plurality of camera setting affordances. Method.
[Item 26]
25. The method of item 24, wherein the gesture of the second type is movement of contact within the camera display area.
[Item 27]
27. The method of any one of items 24-26, wherein the gesture of the first type is movement of contact over at least one of the plurality of camera mode affordances.
[Item 28]
detecting a second gesture on the camera user interface corresponding to a request to display a first representation of previously captured media;
displaying a first representation of the previously captured media in response to detecting the second gesture;
28. The method of any one of items 24-27, further comprising:
[Item 29]
detecting capture of a first media using the one or more cameras while not displaying a representation of previously captured media;
In response to detecting the capture of the first media,
displaying one or more representations of captured media, including representations of the first media;
29. The method of any one of items 24-28, further comprising:
[Item 30]
the plurality of camera setting affordances includes affordances that, when displayed, configure the electronic device to capture media displayed at a first aspect ratio in response to a first request to capture media; 30. The method of any one of items 24-29.
[Item 31]
receiving a third request to capture media while the electronic device is configured to capture media that, when displayed, is displayed in the first aspect ratio;
responsive to receiving the third request to capture media, displaying a representation of the captured media having the first aspect ratio;
receiving a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio;
in response to receiving the request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio; displaying the representation of the captured media having an aspect ratio;
31. The method of item 30, further comprising:
[Item 32]
32. The method of item 31, wherein the representation of the captured media having the second aspect ratio includes visual content not present in the representation of the captured media having the first aspect ratio.
[Item 33]
the representation of the field of view of the one or more cameras is displayed at a first zoom level, the method comprising:
While displaying the representation of the field of view of the one or more cameras displayed at the first zoom level, receiving a first request to change the zoom level of the representation;
in response to receiving the first request to change the zoom level of the representation;
increasing the second representation field of view of the one or more cameras to be greater than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to the request to increase the zoom level of the representation; displaying at a second zoom level;
setting a third representation field of view of the one or more cameras to be smaller than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation; 33. The method of any one of items 24-32, further comprising displaying at a third zoom level.
[Item 34]
receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at a fourth zoom level;
in response to receiving the second request to change the zoom level of the representation;
displaying a fourth representation of the field of view of the one or more cameras at the third zoom level in accordance with determining that the fourth zoom level is the second zoom level;
displaying a fifth representation of the field of view of the one or more cameras at the first zoom level in accordance with determining that the fourth zoom level is the third zoom level;
displaying a sixth representation of the field of view of the one or more cameras at the second zoom level in accordance with determining that the fourth zoom level is the first zoom level;
34. The method of item 33, further comprising:
[Item 35]
displaying the camera user interface includes displaying affordances including graphical indications of states of capture settings;
35. The method of any one of items 24-34, wherein the gesture of the second type corresponds to selecting the graphical indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location includes:
Following a determination that the electronic device is configured to capture media in a first camera mode while the gesture of the second type was detected, a first displaying a set of camera setting affordances;
following determining that the electronic device is configured to capture media in a second camera mode different from the first camera mode while the gesture of the second type was detected; displaying a second set of camera setting affordances different from the first set of camera setting affordances at the first location;
36. The method of any one of items 24-35, comprising
[Item 37]
37. The method of item 36, wherein the first set of camera setting affordances comprises a first camera setting affordance and the second set of camera setting affordances comprises the first camera setting affordance.
[Item 38]
The first camera mode is a still photo capture mode, and the first set of camera setting affordances are:
affordances including visual indications corresponding to flash settings;
Affordances, including visual indications corresponding to live settings;
affordances that include visual indications corresponding to aspect ratio settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
38. The method of item 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 39]
The first camera mode is portrait mode, and the first set of camera setting affordances comprises:
affordances, including visual indications corresponding to depth control settings;
affordances including visual indications corresponding to flash settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
affordances, including visual indications corresponding to lighting settings;
38. The method of item 36 or 37, comprising one or more affordances selected from the group consisting of:
[Item 40]
The first gesture is of the first type, and detecting the first gesture includes determining a first portion of the first gesture and a second portion of the first gesture. detecting, the method comprising:
separate one or more boundaries surrounding at least a portion of the representation of the field of view of the one or more cameras via the display device in response to detecting the first portion of the first gesture; displaying a boundary containing the sub-element;
responsive to detecting the second portion of the first gesture, moving the boundary in a first direction across a display of the display device such that at least a portion of the boundary is parallel off the display; translating until it is moved and stopped being displayed;
40. The method of any one of items 24-39, further comprising:
[Item 41]
41. The method of item 40, wherein detecting the second portion of the first gesture includes detecting a second contact moving in the first direction.
[Item 42]
the second contact is detected on the representation of the field of view of the one or more cameras;
42. The method of item 41, wherein the speed at which the translating of the boundary is performed is proportional to the speed of movement of the second contact in the first direction.
[Item 43]
42. The method of item 41, wherein translating the boundary comprises changing the visual appearance of the at least part of the representation of the field of view of the one or more cameras surrounded by the boundary.
[Item 44]
detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode;
responsive to receiving the second request to capture media, based on a setting corresponding to the third camera mode and at least one setting corresponding to affordances of the plurality of camera setting affordances; capturing media using any of the above cameras;
44. The method of any one of items 24-43, further comprising:
[Item 45]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 45. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 24-44.
[Item 46]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 24-44.
[Item 47]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 24 to 44;
An electronic device comprising:
[Item 48]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising
A non-transitory computer-readable storage medium containing instructions.
[Item 49]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising
An electronic device containing instructions.
[Item 50]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
means, including
means for detecting a first gesture on the camera user interface while displaying the camera user interface;
means for modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
means, including
An electronic device comprising:
[Item 51]
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A method, including
[Item 52]
detecting, while displaying the first representation of the visual content, a set of one or more inputs corresponding to a request to modify the representation of the visual content;
displaying a second representation of the visual content in response to detecting the set of one or more inputs, the second representation of the visual content being controlled by the one or more cameras; and visual content from at least a portion of the first portion of the field of view of the one or more cameras that was not included in the first representation of the visual content from the second portion of the field of view of the one or more cameras visual content based at least in part on the visual content;
52. The method of item 51, further comprising:
[Item 53]
the first representation of the visual content is from a first visual perspective;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of item 52, wherein the representation from a second visual perspective different from the first visual perspective is generated based on .
[Item 54]
the first representation of the visual content is a representation in a first orientation;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of item 52, wherein the representation of a second orientation different from the first orientation is generated based on .
[Item 55]
The first representation is displayed at a first zoom level, the method comprising:
the first representation of the visual content is a representation at a first zoom level;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. a representation of a second zoom level, different from the first zoom level, generated based on
53. The method of item 52, further comprising:
[Item 56]
Further, the first representation of the visual content uses at least a second portion of the visual content from the second portion of the field of view of the one or more cameras for digital image stabilization operations. 56. The method of any one of items 51-55, generated based at least in part.
[Item 57]
further comprising performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras after capturing the media item; 57. The method of any one of items 51-56.
[Item 58]
The request to display the media item is a first request to display the media item, the method comprising:
corresponding to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; receiving a second request to display the media item after displaying the first representation of the visual content to;
the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and the one in response to receiving the second request to display the media item; displaying the representation of the visual content corresponding to the second portion of the field of view of the camera;
58. The method of any one of items 51-57, further comprising:
[Item 59]
displaying, via the display device, a second camera user interface in response to receiving the request to display the camera user interface and in accordance with determining that respective criteria are met. and the second camera user interface renders the first portion of the field of view of the one or more cameras without including the representation of the second portion of the field of view of the one or more cameras. 59. A method according to any one of items 51 to 58, further comprising comprising said representation.
[Item 60]
The method includes:
receiving a request to display a previously captured media item;
in response to receiving said request to display said previously captured media item;
displaying an indication of additional content in accordance with determining that the previously captured media item was captured when the respective criteria were not met;
Ceasing display of indications of additional content in accordance with determining that the previously captured media item has been captured when the respective criteria are met;
60. The method of item 59, further comprising:
[Item 61]
61. A method according to clause 59 or 60, wherein the respective criteria include criteria met when the electronic device is configured to capture media items at a resolution of 4000 horizontal pixels or greater.
[Item 62]
62. The method of any one of items 59 to 61, wherein the respective criteria include criteria that are met when the electronic device is configured to operate in portrait mode at a predetermined zoom level.
[Item 63]
63. The method of any one of items 59 to 62, wherein the respective criteria include criteria met when at least one camera of the one or more cameras fails to maintain focus for a predetermined period of time.
[Item 64]
said input corresponding to said request to capture media with said one or more cameras is a first input corresponding to said request to capture media with said one or more cameras;
The method includes:
detecting a second input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the second input corresponding to the request to capture media with the one or more cameras;
following determining that the electronic device is configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on additional content settings;
capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras; and capturing the first representation of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the representation of at least the portion of visual content;
following determining that the electronic device is not configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on the additional content settings;
into the first portion of the field of view of the one or more cameras without capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the first representation of the corresponding visual content;
64. The method of any one of items 51-63, further comprising:
[Item 65]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 65. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 51-64.
[Item 66]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 51-64.
[Item 67]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 51 to 64;
An electronic device comprising:
[Item 68]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A non-transitory computer-readable storage medium containing instructions.
[Item 69]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device containing instructions.
[Item 70]
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
means for displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
means, including
means for detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and means for capturing a media item with the one or more cameras;
means for receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; means for displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device comprising:
[Item 71]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; and displaying
detecting that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; ceasing to display the first portion;
A method, including
[Item 72]
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
72. The method of item 71, comprising maintaining display of at least a second portion of the representation of the captured media.
[Item 73]
displaying the representation of the captured media at a first location on the display device prior to ceasing to display the first portion of the representation;
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
displaying an animation that moves the representation of the captured media from the first position on the display device toward a second position on the display device corresponding to an edge of the display device; 73. The method of item 71 or 72.
[Item 74]
the representation of the captured media is displayed at a third location on the display device, the method comprising:
Stop displaying at least a portion of the second representation of the captured media while maintaining display of the camera user interface while the second representation of the captured media is being displayed. detecting user input corresponding to a request to
At least the second representation of the captured media while maintaining display of the camera user interface in response to detecting the request to stop displaying at least a portion of the second representation. ceasing to display the portion;
74. The method of any one of items 71-73, comprising
[Item 75]
from a fourth position on the display device corresponding to an edge of the display device, after stopping displaying the first portion of the representation, different from the fourth position on the display device; receiving user input corresponding to movement of the contact to the fifth position;
in response to receiving user input corresponding to moving the contact from the fourth position on the display device corresponding to the edge of the display device to the fifth position on the display device. , redisplaying the first portion of the representation;
75. The method of any one of items 71-74, further comprising:
[Item 76]
detecting user input corresponding to a request to display an enlarged representation of the captured media while the representation of the captured media is being displayed;
displaying, via the display device, an enlarged representation of the captured media in response to detecting user input corresponding to the selection of the representation of the captured media;
76. The method of any one of items 71-75, further comprising:
[Item 77]
receiving a request to redisplay the camera user interface while the camera user interface is not being displayed;
displaying a second instance of the camera user interface including a second representation of captured media in response to receiving the request to redisplay the camera user interface;
77. The method of any one of items 71-76, further comprising:
[Item 78]
the representation of the captured media is displayed at a fifth location on the display device, the method comprising:
Controlling a plurality of camera settings to the fifth position after stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface. 78. The method of any one of clauses 71-77, further comprising displaying affordances to do.
[Item 79]
capturing media corresponding to the field of view of the one or more cameras includes capturing a sequence of images;
79. The method of any one of items 71-78, wherein displaying the representation of the captured media comprises playing at least a portion of the captured sequence of images comprising at least two images. .
[Item 80]
80. The method of item 79, wherein the predetermined period of time is based on the duration of the captured sequence of images.
[Item 81]
receiving user input corresponding to a request to display options for sharing the captured media while displaying the representation of the captured media;
displaying a user interface for sharing the captured media in response to receiving the user input corresponding to the request to display options for sharing the captured media;
81. The method of any one of items 71-80, further comprising:
[Item 82]
82. Method according to item 81, wherein the user interface for sharing the captured media includes multiple options for sharing the captured media.
[Item 83]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 71-82.
[Item 84]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 71-82.
[Item 85]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 71 to 82;
An electronic device comprising:
[Item 86]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
A non-transitory computer-readable storage medium containing instructions.
[Item 87]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
An electronic device containing instructions.
[Item 88]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via said display device, said camera user interface including a camera display area containing a representation of the field of view of said one or more cameras;
means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; a means for displaying
means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; means for stopping displaying the first portion;
An electronic device comprising:
[Item 89]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. By constructing
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; and
A method, including
[Item 90]
In response to detecting at least a first portion of the first input,
Providing a first tactile output in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. 90. The method of item 89, further comprising:
[Item 91]
In response to detecting at least a second portion of the first input,
Captured in response to a request to capture media in accordance with determining that a second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. 91. Method according to item 89 or 90, further comprising displaying a visual indication of said boundary of said media.
[Item 92]
while the visual indication is being displayed and in response to detecting at least a third portion of the first input;
After the first contact has been maintained at the first position for the threshold amount of time, following a determination that the third portion of the first input includes movement of the first contact, said movement of one contact has a first magnitude and a first direction, further comprising modifying an appearance of said visual indication based on said first magnitude and said first direction; 91. The method of item 91.
[Item 93]
In response to detecting at least a first portion of the first input,
the one indicated by the visual indication in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time; 93. Method according to item 91 or 92, further comprising displaying an animation comprising reducing the size of a portion of said representation of said field of view of said camera.
[Item 94]
while the visual indication is being displayed and in response to detecting at least a fourth portion of the first input;
size a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with determining that the fourth portion of the first input includes liftoff of the first contact; 94. A method according to any one of items 91 to 93, further comprising displaying an animation comprising growing.
[Item 95]
A first portion of the representation of the field of view of the one or more cameras is indicated as selected by the visual indication of the boundary of the media; a second portion of the representation is not indicated as selected by the visual indication of the boundary of the media;
95. The method of any one of items 91-94, wherein the second portion is visually distinct from the first portion.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio includes:
to capture media at a predetermined aspect ratio according to said movement of said first contact to said second position having a first magnitude and/or direction of movement within a first range of movement; configuring an electronic device;
according to said movement of said first contact to said second position having a second magnitude and/or direction of movement not within said first range of movement; configuring the electronic device to capture media in an aspect ratio based on size and/or orientation;
96. The method of any one of items 90-95, comprising
[Item 97]
97. The method of claim 96, wherein configuring the electronic device to capture media at the predetermined aspect ratio includes generating a second tactile output via one or more tactile output devices. the method of.
[Item 98]
Prior to detecting the first input, the electronic device is configured to capture media using a first camera mode, the method comprising:
In response to detecting the first input,
determining that the first input does not include maintaining the first contact at the first position for the threshold amount of time; and the first input exceeding a first movement threshold. items 89 through 97, further comprising configuring the electronic device to capture media using a second camera mode different from the first camera mode, according to the determination that the The method according to any one of .
[Item 99]
The camera user interface further includes an indication that the electronic device is configured to operate in a first media capture mode, the method comprising:
according to detecting a fourth input comprising detecting continuous movement of a fourth contact in a second direction over the camera display area;
99. The method of any one of clauses 89-98, further comprising displaying controls for adjusting characteristics associated with the media capture operation.
[Item 100]
In response to detecting the first input,
of the one or more cameras corresponding to the first location, according to determining that the first input includes detecting the first contact at the first location for less than the threshold amount of time. 99. according to any one of clauses 89-99, further comprising adjusting focus settings comprising configuring the electronic device to capture media with content-based focus settings at positions within a field of view. Method.
[Item 101]
In response to detecting the first input,
a second input at a third location not corresponding to a predetermined portion of the camera display area, the first input indicating at least the portion of the border of the media to be captured in response to the request to capture media; a content-based first exposure at a location within the field of view of the one or more cameras corresponding to the third location, according to a determination comprising maintaining the first contact for a threshold amount of time of 100. The method of any one of items 89-100, further comprising configuring the electronic device to capture media in settings.
[Item 102]
after configuring the electronic device to capture media with the first exposure setting based on content at a location within the field of view of the one or more cameras corresponding to the third location; of the representation of the field of view of the one or more cameras causing the content at the position within the field of view of the one or more cameras corresponding to the position to no longer be within the field of view of the one or more cameras. detecting a change; and
continuing to configure the electronic device to capture media at the first exposure setting in response to detecting the change;
102. The method of item 101, further comprising:
[Item 103]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 89-102.
[Item 104]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 89-102.
[Item 105]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 89 to 102;
An electronic device comprising:
[Item 106]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; A non-transitory computer-readable storage medium that contains standards for
[Item 107]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; electronic devices, including standards that are
[Item 108]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. means for detecting a first input including a first touch at each position;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. a means for configuring
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; means, including criteria for
An electronic device comprising:
[Item 109]
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media.
[Item 110]
displaying a media capture affordance; and
detecting a first input corresponding to the media capture affordance;
In response to detecting the first input,
capturing media at the first zoom level in accordance with determining that the first input was detected while the first camera user interface was displayed;
capturing media at the second zoom level in accordance with determining that the first input was detected while the second camera user interface was displayed;
110. The method of item 109, further comprising:
[Item 111]
displaying the first camera user interface includes displaying a first representation of the field of view of the one or more cameras;
the first representation is displayed in the first camera orientation at the first zoom level;
displaying the second camera user interface includes displaying a second representation of the field of view of the one or more cameras;
111. Method according to item 109 or 110, wherein the second representation is displayed with the second camera orientation at the second zoom level.
[Item 112]
The first orientation is portrait, the first representation is a portion of the field of view of the one or more cameras, the second orientation is landscape, the second representation is , the entire field of view of the one or more cameras.
[Item 113]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
displaying the first representation to a third representation of the field of view of the one or more cameras in response to receiving the request to change the first zoom level to the third zoom level. transposing, wherein the third representation is the orientation of the first camera and the third zoom level;
113. The method of item 111 or 112, further comprising
[Item 114]
displaying a zoom toggle affordance while displaying the first representation of the field of view of the one or more cameras;
detecting a second input corresponding to the selection of the zoom toggle affordance, the selection of the zoom toggle affordance being for a request to change the first zoom level to a fourth zoom level;
replacing the display of the first representation with a fourth representation of the field of view of the one or more cameras in response to detecting the second input, the fourth representation comprising: the orientation of the first camera and the fourth zoom level;
113. The method of any one of items 111-113, further comprising:
[Item 115]
115. The method of item 114, wherein the zoom toggle affordance is displayed in the first camera user interface and the second camera user interface.
[Item 116]
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level;
replacing the display of the first representation with a fifth representation of the field of view of the one or more cameras, the fifth representation being in the orientation of the first camera and the third representation is the zoom level of
116. The method of any one of items 111-115, further comprising:
[Item 117]
the one or more cameras include a first camera and a second camera separate from the first camera;
The set of auto-zoom criteria is such that the electronic device is displaying in the first camera user interface a representation of the field of view of the first camera and a representation of the field of view of the second camera. 117. A method according to any one of items 109 to 116, including criteria that are met when not displaying .
[Item 118]
118. The method of any one of items 109-117, wherein the set of auto-zoom criteria includes criteria that are met when the electronic device is not in a video capture mode of operation.
[Item 119]
119. The method of any one of items 109 to 118, wherein the set of auto-zoom criteria includes criteria met when the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is higher than the second zoom level, the method comprising:
detecting a change in orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface;
displaying the first camera user interface on the display device in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation;
120. The method of any one of items 109-119, further comprising:
[Item 121]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 109-120.
[Item 122]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 109-120.
[Item 123]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 109 to 120;
An electronic device comprising:
[Item 124]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and a camera, the one or more programs comprising:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
A non-transitory computer-readable storage medium containing instructions.
[Item 125]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
An electronic device containing instructions.
[Item 126]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
means for detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation, at a second zoom level different from the first zoom level, automatically, without intervening user input, according to a determination that a set of auto-zoom criteria are met; means for displaying a second camera user interface for capturing media;
An electronic device comprising:
[Item 127]
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a media capture user interface that includes displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
a criterion met in response to detecting the change in the field of view of the one or more cameras and when ambient light in the field of view of the one or more cameras is below a first threshold; Subject to the determination that the variable frame rate criteria are met,
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; and updating the representation of the field of view of the one or more cameras, wherein the updating of the live preview indicates that the detected change in the field of view of the one or more cameras is a movement criterion. of the one or more cameras at a first frame rate and updated based on the detected changes in the field of view of the one or more cameras at the first frame rate. said representation of said field of view is displayed on said display device at a first intensity;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criterion. Updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view, wherein the updating of the live preview comprises the field of view of the one or more cameras. performed at a second frame rate and at the second frame rate lower than the first frame rate when the detected change in the one or more cameras does not meet the movement criterion. The representation of the field of view of the one or more cameras, updated based on the detected change in the field of view, is displayed on the display device at a second luminance that is visually brighter than the first luminance. be displayed and
A method, including
[Item 128]
updating the representation of the field of view of the one or more cameras at a third frame rate prior to detecting the change in the field of view of the one or more cameras, the method comprising:
the one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that the variable frame rate criteria are not met; 128. The method of item 127, further comprising maintaining the updating of the representation of the field of view.
[Item 129]
129. The method of item 128, wherein the variable frame rate criteria include criteria met when flash mode is inactive.
[Item 130]
Displaying the media capture user interface includes:
displaying an indication that a variable frame rate mode is active in accordance with determining that the variable frame rate criteria are met;
displaying the media capture user interface without the indication that the variable frame rate mode is active following a determination that the variable frame rate criteria are not met;
129. The method of any one of items 127-129, comprising
[Item 131]
(cancel).
[Item 132]
131. The method of any one of items 127-130, wherein the second frame rate is based on the amount of ambient light in the field of view of the one or more cameras below a respective threshold.
[Item 133]
133. The method of any one of items 127-130 and 132, wherein the detected change comprises detected movement, and wherein the second frame rate is based on the amount of the detected movement.
[Item 134]
from items 127 to 130 and 132, wherein the movement criteria include criteria met when the detected change in the field of view of the one or more cameras corresponds to movement of the electronic device greater than a movement threshold. 133. The method according to any one of clauses 133 to 133.
[Item 135]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more comprises instructions for performing the method of any one of items 127-130 and 132-134.
[Item 136]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 127-130 and 132-134.
[Item 137]
an electronic device,
a display device;
one or more cameras;
means for performing the method of any one of items 127-130 and 132-134;
An electronic device comprising:
[Item 138]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
a criterion met in response to detecting the change in the field of view of the one or more cameras and when ambient light in the field of view of the one or more cameras is below a first threshold; Subject to the determination that the variable frame rate criteria are met,
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; updating the representation of the field of view of the one or more cameras, wherein the updating of the live preview occurs when the detected change in the field of view of the one or more cameras meets a movement criterion; said field of view of said one or more cameras performed at a first frame rate and updated based on said detected changes in said field of view of said one or more cameras at said first frame rate. a representation is displayed on the display device at a first intensity;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected change in the field of view, wherein the updating of the live preview results in the detection within the field of view of the one or more cameras. within the field of view of the one or more cameras at a second frame rate and at the second frame rate that is lower than the first frame rate when the resulting change does not meet the movement criterion. said representation of said field of view of said one or more cameras updated based on said detected change is displayed on said display device at a second luminance that is visually brighter than said first luminance;
A non-transitory computer-readable storage medium containing instructions.
[Item 139]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
a criterion met in response to detecting the change in the field of view of the one or more cameras and when ambient light in the field of view of the one or more cameras is below a first threshold; Subject to the determination that the variable frame rate criteria are met,
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; updating the representation of the field of view of the one or more cameras, wherein the updating of the live preview occurs when the detected change in the field of view of the one or more cameras meets a movement criterion; said field of view of said one or more cameras performed at a first frame rate and updated based on said detected changes in said field of view of said one or more cameras at said first frame rate. a representation is displayed on the display device at a first intensity;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected change in the field of view, wherein the updating of the live preview results in the detection within the field of view of the one or more cameras. within the field of view of the one or more cameras at a second frame rate and at the second frame rate that is lower than the first frame rate when the resulting change does not meet the movement criterion. said representation of said field of view of said one or more cameras updated based on said detected change is displayed on said display device at a second luminance that is visually brighter than said first luminance;
An electronic device containing instructions.
[Item 140]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
means for detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
a criterion met in response to detecting the change in the field of view of the one or more cameras and when ambient light in the field of view of the one or more cameras is below a first threshold; Subject to the determination that the variable frame rate criteria are met,
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; updating the representation of the field of view of the one or more cameras, wherein the updating of the live preview occurs when the detected change in the field of view of the one or more cameras meets a movement criterion; said field of view of said one or more cameras performed at a first frame rate and updated based on said detected changes in said field of view of said one or more cameras at said first frame rate. a representation is displayed on the display device at a first intensity;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected change in the field of view, wherein the updating of the live preview results in the detection within the field of view of the one or more cameras. within the field of view of the one or more cameras at a second frame rate and at the second frame rate that is lower than the first frame rate when the resulting change does not meet the movement criterion. said representation of said field of view of said one or more cameras updated based on said detected change is displayed on said display device at a second luminance that is visually brighter than said first luminance;
means and
An electronic device comprising:
[Item 141]
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface;
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
including
A method, including
[Item 142]
obtaining an indication that low light conditions are no longer met while displaying the control for adjusting the capture duration;
Stopping displaying, via the display device, the control for adjusting the capture duration in response to obtaining the indication;
142. The method of item 141, further comprising:
[Item 143]
Obtaining an indication that low light conditions have been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the control for adjusting the capture duration. When,
displaying the control for adjusting the capture duration concurrently with the representation of the field of view of the one or more cameras in response to obtaining the indication;
143. The method of item 141 or 142, further comprising
[Item 144]
144. The method of any one of items 141-143, wherein the low light conditions comprise conditions met when a flash mode is inactive.
[Item 145]
145. The method of any one of items 141-144, wherein the control for adjusting the capture duration is a slider.
[Item 146]
Displaying the camera user interface includes:
from item 141 including displaying a media capture affordance that, when selected, initiates the capture of media using the one or more cameras concurrently with the representation of the field of view of the one or more cameras. 145. The method of any one of clauses 145 to 145.
[Item 147]
displaying a first indication of a first capture duration while displaying the controls for adjusting the capture duration;
the first indication of the first capture duration in response to receiving a request to adjust the control that adjusts the capture duration from the first capture duration to a second capture duration; with a display of a second indication of the second capture duration;
147. The method of item 146, further comprising:
[Item 148]
the representation of the field of view of the one or more cameras is a first representation of the field of view of the one or more cameras, the method comprising:
in response to receiving the request to adjust the control that adjusts the capture duration from the first capture duration to the second capture duration;
replacing a display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and 148. The method of item 147, further comprising being visually distinct from the representation of 1.
[Item 149]
receiving a request to capture media while displaying the second indication of the second capture duration;
the second capture duration in response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predetermined capture duration that deactivates a low light capture mode; Initiating media capture via the one or more cameras based on a duration different than time;
149. The method of item 147 or 148, further comprising
[Item 150]
receiving a request to capture media while displaying the second indication of the second capture duration;
initiating media capture via the one or more cameras based on the second capture duration in response to receiving the request to capture media;
149. The method of item 147 or 148, further comprising
[Item 151]
151. The method of clause 150, further comprising, in response to receiving the request to capture media, stopping displaying the representation of the field of view of the one or more cameras.
[Item 152]
the control for adjusting the capture duration is displayed in a first color, the method comprising:
152. Claimed in clause 150 or 151, further comprising, in response to receiving the request to capture media, displaying the control for adjusting the capture duration in a second color different from the first color. the method of.
[Item 153]
Displaying a first animation moving a third indication of a third capture value to the second indication of the second capture duration in response to receiving the request to capture media. When,
After displaying the first animation, displaying a second animation that moves the second indication of the second capture duration to the third indication of the third capture value. and the duration of the second animation corresponds to the duration of the second capture duration and is different than the duration of the first animation;
153. The method of any one of items 150-152, further comprising:
[Item 154]
providing a first tactile output while displaying the first animation;
providing a second tactile output while displaying the second animation;
154. The method of item 153, further comprising:
[Item 155]
155. The method of any one of items 150-154, further comprising capturing the media based on the second capture duration after initiating the capture of the media.
[Item 156]
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture second media based on the second capture duration after capturing the first media;
initiating capture of the second media based on the second capture duration in response to receiving the request to capture the second media based on the second capture duration;
After initiating capture of the second media based on the second capture duration and before the second capture duration elapses, receiving a request to end capturing the second media. When,
In response to receiving the request to end capturing the second media,
terminating the capture of the second media based on the second capture duration;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a pre-captured representation of the second media. When,
156. The method of item 155, further comprising:
[Item 157]
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture a third media based on the second capture duration after capturing the first media;
Initiating capture of the third media based on the second capture duration in response to receiving the request to capture third media based on the second capture duration;
After initiating capture of the third media based on the second capture duration,
according to determining that a detected change in the field of view of the one or more cameras exceeds a movement criterion;
terminating the capture of the third media;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a representation of the third media captured prior to termination. When,
157. The method of item 155 or 156, further comprising
[Item 158]
168. Any of items 155-167, further comprising, in response to receiving the request to capture media, replacing the indication of affordance requesting to capture media with an indication of affordance to end capturing media. The method according to item 1.
[Item 159]
displaying a first representation of the first media captured at a first capture time after initiating capture of the media;
After displaying the first representation of the first media, the display of the first representation of the first media is captured at a second capture time after the first capture time. substituting a representation of a second representation of a first medium, wherein the second representation is visually distinct from the first representation of the first medium;
159. The method of any one of items 155-158, further comprising:
[Item 160]
160. The method of clause 159, wherein the replacing the display of the first representation of the first medium with the display of the second representation of the first medium occurs after a predetermined period of time.
[Item 161]
displaying the camera user interface concurrently with the control for adjusting the capture duration in accordance with a determination that a low light condition has been met; a low light capture status indicator indicating a low light capture mode status is active including displaying
The method includes:
receiving a first selection of the low light capture condition indicator while displaying the low light capture condition indicator;
In response to receiving a first selection of the low light condition capture indicator,
ceasing to display the control for adjusting the capture duration while maintaining display of the low-light capture status indicator;
updating the appearance of the low light capture state indicator to indicate that the state of the low light capture mode is inactive;
161. The method of any one of items 141-160, comprising
[Item 162]
Displaying the camera user interface comprises displaying the low light capture status indicator indicating that the low light capture mode is inactive in accordance with a determination that a low light condition has been met, while displaying the low light capture status indicator. receiving a second selection of the light capture status indicator;
The method includes:
162. The method of item 161, comprising redisplaying the control for adjusting the capture duration in response to receiving the second selection of the low light capture condition indicator.
[Item 163]
162. The method of item 161, comprising configuring the electronic device not to perform a flash operation in response to receiving the first selection of the low light capture condition indicator.
[Item 164]
164. The method of any one of items 161-163, wherein the low light condition comprises a condition that is met when the low light capture state indicator is selected.
[Item 165]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 141-164.
[Item 166]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 141-164.
[Item 167]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 141 to 164;
An electronic device comprising:
[Item 168]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
A non-transitory computer-readable storage medium, including
[Item 169]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
electronic devices, including
[Item 170]
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
means for displaying a camera user interface via the display device in response to receiving the request to display the camera user interface, comprising:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
means, including
An electronic device comprising:
[Item 171]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
simultaneously displaying the
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A method, including
[Item 172]
flash settings are configured to automatically determine if the amount of light within the field of view of the one or more cameras meets low-light environment criteria and the flash operation is set to active or inactive; following the determination that the flash operating criteria are met, including the criteria met when
the flash state indicator indicates that the state of the flash operation is active;
172. The method of item 171, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 173]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
following determining that the amount of light within the field of view of the one or more cameras is within a first predetermined range and that a flash setting is set to active;
the flash state indicator indicates that the state of the flash operation is active;
the low light capture indicator indicates that the state of the low light capture mode is inactive;
following determining that the amount of light within the field of view of the one or more cameras is within the first predetermined range and that the flash setting is not set to active;
the flash state indicator indicates that the state of the flash operation is inactive;
173. Method according to item 171 or 172, wherein the low light capture indicator indicates that the state of the low light capture mode is active.
[Item 174]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
according to determining that the amount of light within the field of view of the one or more cameras is within a second predetermined range different from the first predetermined range, and the flash setting is set to inactive. ,
the flash state indicator indicates that the state of the flash operation is inactive;
the low light capture indicator indicates that the state of the low light capture mode is active;
determining that the amount of light within the field of view of the one or more cameras is within the second predetermined range different from the first predetermined range and the flash setting is not set to inactive according to
the flash state indicator indicates that the state of the flash operation is active;
174. The method of item 173, wherein the low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 175]
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the flash status indicator while indicating;
In response to receiving the selection of the flash status indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture indicator to indicate that the state of the low light capture mode is active;
175. The method of any one of items 171-174, further comprising:
[Item 176]
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the low light capture state indicator while indicating;
In response to receiving the selection of the low light capture condition indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
176. The method of any one of items 171-175, further comprising:
[Item 177]
177. The method of any one of clauses 171-176, further comprising displaying controls for adjusting a capture duration in accordance with determining that the state of the low light capture mode is active.
[Item 178]
receiving a request to change the control from a first capture duration to a second capture duration while displaying the control for adjusting the capture duration;
in response to receiving the request to change the control from the first capture duration to the second capture duration;
the low light capture mode to indicate that the state of the low light capture mode is inactive upon determining that the second capture duration is a predetermined capture duration that deactivates the low light capture mode; updating the light capture status indicator;
178. The method of item 177, further comprising:
[Item 179]
detecting a change in the state of a low-light capture mode while displaying the controls for adjusting the capture duration;
in response to detecting the change in state of the low light capture mode;
ceasing display of the control for adjusting the capture duration upon determining that the state of low-light capture mode is inactive;
178. The method of item 177, further comprising:
[Item 180]
displaying within the camera user interface a first representation of the field of view of the one or more cameras;
receiving a request to capture a first media of the field of view of the one or more cameras while the state of low light capture mode is active;
in response to receiving said request to capture a first media while said state of low light capture mode is active;
initiating capture of the first media;
maintaining the display of the first representation of the field of view of the one or more cameras for the duration of the capture of the first media;
179. The method of any one of items 171-179, further comprising:
[Item 181]
receiving a request to capture a second media of the field of view of the one or more cameras while the state of low light capture mode is active;
initiating capture of the second media in response to receiving the request to capture the second media while the state of low light capture mode is active;
concurrently displaying a representation of the second media within the camera user interface while capturing the second media;
181. The method of any one of items 171-180, further comprising:
[Item 182]
displaying within the camera user interface a second representation of the field of view of the one or more cameras;
receiving a request to capture a third media of the field of view of the one or more cameras while the state of low-light capture mode is active;
initiating capture of the third media in response to receiving the request to capture the third media while the state of the low light capture mode is active;
ceasing to display representations derived from the field of view of the one or more cameras within the camera user interface while capturing the third media;
182. The method of any one of items 171-181, further comprising:
[Item 183]
Displaying the flash status indicator within the camera user interface indicating the status of the flash operation following a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criteria. 183. The method of any one of items 171-182, further comprising:
[Item 184]
184. The method of any one of items 171-183, wherein the state of the flash operation and the state of the low light capture mode are mutually exclusive.
[Item 185]
185. The method of any one of items 171-184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state and an inactive state.
[Item 186]
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
wherein upon determining that the amount of light within the field of view of the one or more cameras is within a third predetermined range, the flash status indicator indicates that the status of flash operation is available; 185. The method of any one of 171 or 172 and 174-185.
[Item 187]
the control for adjusting the capture duration is a first control for adjusting the capture duration, the method comprising:
receiving a selection of the low light capture state indicator while the flash state indicator indicates that the state of flash operation is available;
In response to receiving a selection of said low light capture condition indicator,
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
displaying a second control for adjusting the capture duration;
186. The method of item 186, further comprising:
[Item 188]
A first low-light capture status indicator provides a first visual representation of the first capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. including
Upon determining that ambient light within the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture condition indicator outputs the second light of the first capture duration. 188. The method of any one of items 171-187, which does not include a visual representation of 1.
[Item 189]
in response to detecting the amount of light within the field of view of the one or more cameras, according to the determination that the amount of light within the field of view of the one or more cameras meets low light environment criteria;
upon determining that ambient light within the field of view of the one or more cameras is within a third predetermined range, the low light capture state indicator indicates that the low light capture mode state is active; including a second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, the low light capture state indicator indicates that the state of the low light capture mode is active. and not including the second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, the low light capture status indicator indicates that the low light capture mode status is available. , the low-light capture state indicator indicating that the state of the low-light capture mode is active and including the second visual representation of the first capture duration; and the low-light capture mode. the low-light capture state indicator indicating that a state is active and not including the second visual representation of the first capture duration; and indicating that the low-light capture mode state is available. the low-light capture state indicator is visually distinct from each other,
188. The method of any one of paragraphs 171-188, further comprising:
[Item 190]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 171-189.
[Item 191]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 171-189.
[Item 192]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 171 to 189;
An electronic device comprising:
[Item 193]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A non-transitory computer-readable storage medium containing instructions.
[Item 194]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
An electronic device containing instructions.
[Item 195]
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device;
means for detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
means and
An electronic device comprising:
[Item 196]
a method,
In an electronic device equipped with a display device,
displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
including
detecting a first user input corresponding to selection of the first affordance while displaying the media editing user interface;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjusting the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable for adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance; displaying a control;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A method, including
[Item 197]
the adjustable control for adjusting the first editable parameter includes a first static portion and a first variable portion;
said adjustable control for adjusting said second editable parameter includes said first static portion and a second variable portion;
displaying the adjustable controls for adjusting the second editable parameter at the respective locations within the media editing user interface;
196. The method of item 196 comprising maintaining, on the display device, display of the first static portion at the respective position within the media editing user interface.
[Item 198]
The adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter produce one or more visual characteristics when adjusted to the same relative position. 198. The method of item 196 or 197, with sharing.
[Item 199]
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the first editable parameter;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the second editable parameter;
199. The method of any one of paragraphs 196-198, further comprising
[Item 200]
the first editable parameter is an auto-tuning editable parameter;
From item 196, adjusting the current value of the first editable parameter according to the first gesture includes adjusting current values of a plurality of editable parameters including the second editable parameter. 199. A method according to any one of 199.
[Item 201]
The media editing user interface includes a plurality of editable parameter current value indicators, the plurality of editable parameter current value indicators comprising:
a value indicator corresponding to the second editable parameter of the representation of the visual media;
a value indicator corresponding to a third editable parameter of the representation of the visual media;
including
Adjusting current values of the plurality of editable parameters includes:
adjusting the current value of the third editable parameter;
updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter;
updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter;
199. The method of item 199, comprising
[Item 202]
detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter for editing the representation of the visual media;
displaying the third affordance in response to detecting the third user input;
202. The method of any one of paragraphs 196-201, further comprising:
[Item 203]
displaying the adjustable control for adjusting the first editable parameter and displaying the adjustable control for adjusting the first editable parameter while detecting the third user input; 203. The method of item 202, further comprising visually suppressing.
[Item 204]
the third user input is received while the adjustable control adjusting the first editable parameter is displayed;
Displaying the third affordance includes:
within the media editing user interface in accordance with a determination that a first set of criteria are met, including criteria met when the fourth editable parameter is a first type parameter; displaying an adjustable control for adjusting the fourth editable parameter at a location of
displaying the adjustable controls for adjusting the fourth editable parameter at the respective locations within the media editing user interface in accordance with the determination that the first set of criteria are not met; to stop and
203. The method of item 203, comprising:
[Item 205]
205. Claimed in any one of clauses 196-204, wherein the first user input is a tap input on the first affordance and the second user input is a tap input on the second affordance. described method.
[Item 206]
a first indication of whether the representation of the visual media is currently being adjusted based on the first editable parameter while displaying the representation of the visual media and the first affordance; displaying an editable parameter status indicator;
detecting a fourth user input corresponding to selection of the first affordance;
In response to detecting the fourth user input,
following determining that the presentation of the visual media is currently being adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media that was not adjusted based on the first editable parameter;
following determining that the representation of the visual media is not currently adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter;
206. The method of any one of paragraphs 196-205, further comprising:
[Item 207]
Adjusting the current value of the first editable parameter according to the first gesture includes:
generating a tactile output in accordance with determining that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter;
ceasing to generate tactile output upon determining that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter;
207. The method of any one of items 196-206, comprising
[Item 208]
visualizing the adjustable control that adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter; 208. The method of any one of paragraphs 196 to 207, further comprising emphasizing on.
[Item 209]
A third editable parameter current value indicator visually surrounds at least a portion of the first affordance, and a fourth editable parameter current value indicator visually surrounds the second affordance. 209. The method of any one of paragraphs 196-208, wherein
[Item 210]
the electronic device includes one or more cameras;
said representation of said visual media is a representation of a field of view of said one or cameras;
the media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that enables application of lighting effects and depth effects;
wherein the first editable parameter is lighting effect intensity;
209. The method of any one of items 196-199 and 202-209, wherein the second editable parameter is depth effect strength.
[Item 211]
the first editable parameter corresponds to a lighting effect parameter;
the media editing user interface includes a value indicator corresponding to the lighting effect parameter;
Adjusting the current value of the first editable parameter according to the first gesture comprises adjusting the lighting effect parameter based on the adjusted current value of the first editable parameter. 209. The method of any one of items 196-199 and 202-209, comprising:
[Item 212]
the first editable parameter is a visual filter effect strength;
Adjusting the current value of the first editable parameter according to the first gesture includes:
209. The method according to any one of clauses 196-199 and 202-209, comprising replacing a display of the representation of visual media with a representation of the visual media adjusted based on the current value of the visual filter effect strength. the method of.
[Item 213]
196. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 196. 213. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of 212.
[Item 214]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 196-212.
[Item 215]
an electronic device,
a display device and means for performing the method of any one of items 196 to 212;
An electronic device comprising:
[Item 216]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A non-transitory computer-readable storage medium containing instructions.
[Item 217]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
An electronic device containing instructions.
[Item 218]
an electronic device,
a display device;
means for displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
means, including
means for detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; means for displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; means for detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; means for adjusting the current value of the first editable parameter according to the gesture of
means for detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; means for displaying controls;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; means for detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; means for adjusting the current value of the second editable parameter according to the gesture of
An electronic device comprising:
[Item 219]
a method,
In an electronic device equipped with a display device,
displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
and
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
A method, including
[Item 220]
The first user interface includes:
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to horizontal perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a first affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the horizontal perspective distortion of
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to vertical perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a second affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the vertical perspective distortion of
220. The method of item 219, comprising
[Item 221]
while displaying the first affordance and the second affordance, to indicate a current adjustment amount to rotate visual content within the first representation of the first visual media when selected; and concurrently displaying a third affordance that updates the indication of the adjustable control.
[Item 222]
the perspective distortion corresponds to horizontal perspective distortion,
222. Any one of items 219 through 221, wherein the amount of horizontal perspective distortion of the first representation of the first visual medium is different than the amount of horizontal perspective distortion of the second representation of the first visual medium. The method described in section.
[Item 223]
the perspective distortion corresponds to vertical perspective distortion,
223. Any one of items 219 through 222, wherein the amount of vertical perspective distortion of the first representation of the first visual medium is different than the amount of vertical perspective distortion of the second representation of the first visual medium. The method described in section.
[Item 224]
The first representation includes a first apparent horizontal line, and the method includes:
while the first representation of the first visual medium includes a degree of rotation with respect to a visual boundary within the first representation of the first visual medium; detecting an input that changes the degree of rotation of a representation of 1;
responsive to detecting an input that changes the degree of rotation of the first representation of the first visual medium by an amount determined based on the input; and rotating
224. The method of any one of paragraphs 219-223, further comprising:
[Item 225]
The first representation includes first visual content of the first visual medium, the method comprising:
a set of one or more inputs that change the first visual content of the first representation while the first representation of the first visual media includes the first visual content; detecting;
in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media, displaying a fourth representation of the first visual media that includes second visual content of the first visual media that is different from the visual content;
224. The method of any one of items 219-224, comprising:
[Item 226]
The first user interface includes auto-tuning affordances, the method comprising:
detecting an input corresponding to the auto-tuning affordance;
In response to detecting the input corresponding to the auto-tuning affordance,
automatically adjusting current values of two or more parameters of the first visual medium selected from the group consisting of a horizontal perspective distortion parameter, a vertical perspective distortion parameter, and a rotation parameter;
displaying a fifth representation of the first visual media based on the adjusted current values of the adjusted two or more parameters;
225. The method of any one of paragraphs 219-225, further comprising:
[Item 227]
one or more of a second set responsive to a request to display a third user interface different from the first user interface while displaying the first user interface including the auto-adjusting affordance. detecting the input of
Displaying a third user interface on the display device in response to detecting the second set of one or more inputs, comprising:
displaying a representation of at least a portion of the second visual content in the second visual medium;
displaying the auto-adjusting affordance in accordance with determining that the second visual medium includes additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium; ,
Displaying the auto-adjusting affordance in accordance with determining that the second visual medium does not include additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium. and
including
226. The method of item 226, further comprising:
[Item 228]
said first representation of said first visual media does not include additional visual content outside a predetermined spatial boundary of the captured visual content also when said first visual media was captured; a representation of a first portion of the visual content in a first visual medium;
The second representation of the first visual media is at least of the additional visual content outside a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured. 228. The method of any one of items 219-227, comprising a portion.
[Item 229]
said first representation of said first visual media being displayed in a first aspect ratio;
the first user interface includes an aspect ratio affordance;
The method includes:
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
displaying a sixth representation of the first visual media at a second aspect ratio different from the first aspect ratio in response to detecting the user input corresponding to the aspect ratio affordance;
228. The method of any one of paragraphs 219-228, further comprising:
[Item 230]
said first representation of said first visual media being displayed in a first orientation;
the first aspect ratio has a first horizontal aspect ratio value and a first vertical aspect ratio value;
the first user interface includes an aspect ratio affordance;
The method includes:
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media in response to detecting the user input corresponding to the aspect ratio affordance; displaying visual feedback showing a portion of the first visual media corresponding to the third aspect ratio of
a second horizontal aspect ratio value equal to the first vertical aspect ratio value;
a second vertical aspect ratio value equal to the first horizontal aspect ratio value;
having
230. The method of item 229, further comprising:
[Item 231]
Displaying the first user interface includes:
along with one or more controls for adjusting perspective, cropping, and/or rotation of the image according to determining that the first visual media includes multiple frames of content corresponding to different times; 231. The method of any one of clauses 219-230, comprising displaying adjustable controls for adjusting which frames of content corresponding to the visual media are displayed.
[Item 232]
a visual boundary is displayed around a first portion of a seventh representation of the first visual medium, the seventh representation corresponding to a first time within the first visual medium;
The method includes:
while displaying the adjustable controls for adjusting which frames of content corresponding to the first visual media are displayed, corresponding time-based frames of the first visual media corresponding to respective times; detecting a request to select a representation;
in response to detecting the request to select the time-based representation of the first visual media corresponding to respective times;
displaying an eighth representation of the first visual medium corresponding to a second time within the first visual medium;
maintaining display of a visual border displayed around a first portion of the eighth representation of the first visual media;
232. The method of item 231, further comprising:
[Item 233]
The first representation of the first visual media is displayed at a first zoom level, the method comprising:
detecting a request to change a zoom level of a representation of the first visual media while displaying the first representation of the first visual media;
a ninth zoom level of the first visual media at a second zoom level different from the first zoom level in response to detecting the request to change the zoom level of the representation of the first visual media; displaying a representation of
232. The method of any one of paragraphs 219-232, further comprising:
[Item 234]
said first representation of said first visual media includes perspective distortion based on a first camera lens shape and/or a first camera position;
234. according to any one of items 219 to 233, wherein the second representation of the first visual media is adjusted to reduce the perspective distortion based on the shape of the camera lens and/or the position of the camera; described method.
[Item 235]
said adjustable control corresponds to a control for correcting perspective distortion;
The method includes:
responsive to detecting the user input including the gesture directed at the adjustable control, adjusting the amount of perspective distortion correction according to the direction and/or magnitude of the gesture directed at the adjustable control; 234. The method of any one of paragraphs 219-234, further comprising updating.
[Item 236]
219. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising item 219. 399. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 235 and 399.
[Item 237]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 219-235 and 399.
[Item 238]
an electronic device,
a display device and means for performing the method of any one of items 219 to 235 and 399;
An electronic device comprising:
[Item 239]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
A non-transitory computer-readable storage medium containing instructions.
[Item 240]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device containing instructions.
[Item 241]
an electronic device,
a display device;
means for displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
and simultaneously displaying
means for detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
means for displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device comprising:
[Item 242]
a method,
In an electronic device having a display device,
displaying a media capture user interface via the display device, comprising:
including displaying a representation of the field of view of one or more cameras;
displaying controls for adjusting the capture duration for capturing media while the low-light camera mode is active;
Upon determining that a first set of capture duration criteria are met, including criteria met when ambient light in the field of view of the one or more cameras exceeds a first threshold,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
A second set of criteria that are different from the first set of capture duration criteria and that are met when ambient light in the field of view of the one or more cameras is below the first threshold. according to the determination that the capture duration criteria of
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
including
detecting an input corresponding to a tap input on a shutter affordance while the low-light camera mode is active and while displaying the control for adjusting the capture duration for capturing media;
Generating a single composite image from a plurality of images in response to detecting the input corresponding to the tap input on the shutter affordance, comprising:
the first capture in accordance with determining that the set of first capture duration criteria are met when the ambient light within the field of view of the one or more cameras exceeds the first threshold; capturing a first number of images over a duration and combining the first number of images into the single composite image;
the second capture in accordance with determining that the first set of capture duration criteria are met when the ambient light within the field of view of the one or more cameras is below the first threshold; capturing a second number of images greater than the first number of images over a duration of time and combining the second number of images into the single composite image;
including
A method, including
[Item 243]
(cancel).
[Item 244]
(cancel).
[Item 245]
(cancel).
[Item 246]
(currently corrected) detecting a first stability of the electronic device while displaying the indication that the control is set to the first capture duration;
In response to detecting the first stability of the electronic device,
According to determining that the first stability of the electronic device is above a first stability threshold,
displaying an indication that the control is set to a third capture duration that is longer than the first capture duration;
Configuring the electronic device to capture a third plurality of images over the third capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras. and
243. The method of item 242, further comprising:
[Item 247]
indicating the state of the low-light camera mode while the low-light camera mode is active; and
comprising a visual representation of the first capture duration upon determining that a capture duration display criterion is met;
not including the visual representation of the first capture duration according to a determination that a capture duration display criterion is not met;
246. The method of any one of items 242-246, further comprising displaying a first low light capture condition indicator.
[Item 248]
248. The method of item 247, wherein the capture duration display criteria include criteria met when ambient light within the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
Before said low light camera mode is active,
indicating that the low-light camera mode state is active, and a third capture duration, in accordance with determining that ambient light within the field of view of the one or more cameras is within a second predetermined range. displaying a second low-light capture status indicator comprising a visual representation of
indicating that the low-light camera mode state is active, and the third capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. displaying a third low-light capture status indicator that does not include the visual representation of time;
A fourth low-light capture status indicator indicating that the low-light camera mode status is available upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range. wherein the second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually distinct from one another. ,
the second low-light capture state indicator, the third low-light capture state indicator, and the ceasing to display the fourth low light capture status indicator;
248. The method of any one of items 242 and 246-248, further comprising:
[Item 250]
The control for adjusting the capture duration for capturing media comprises:
a first state corresponding to a first recommended capture duration value;
a second state corresponding to a second recommended capture duration value;
a third state corresponding to a third recommended capture duration value;
249. The method of any one of items 242 and 246-249, wherein the method is configured to be adjustable to .
[Item 251]
displaying the control for adjusting the capture duration for capturing media;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state according to determining that the set of first capture duration criteria are met; , the first capture duration is the second recommended capture duration value;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state in accordance with determining that the set of second capture duration criteria are met; , the second capture duration is the second recommended capture duration value;
250. The method of item 250, comprising:
[Item 252]
displaying the control for adjusting the capture duration for capturing media;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the first set of capture duration criteria are met; a recommended capture duration value of 3 is the third capture duration value;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the set of second capture duration criteria are met; 3 recommended capture duration values are a fourth capture duration value different from the third capture duration value;
252. The method of item 250 or 251, comprising:
[Item 253]
The second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value, the method comprising:
detecting a first change in a current condition of the electronic device while displaying the controls for adjusting a capture duration for capturing media;
in response to detecting the first change in the current condition of the electronic device;
Upon determining that the first current condition satisfies a third capture duration criterion is met,
A seventh capture wherein the second recommended capture duration value is a seventh capture duration value, the fifth capture duration value being different than the seventh capture duration value a duration value, and
setting the third recommended capture duration value to an eighth capture duration value that is different from the sixth capture duration value;
changing to at least one of
253. The method of any one of items 250-252, further comprising:
[Item 254]
The set of first capture duration criteria comprises:
movement detected within the field of view of the one or more cameras;
a second stability of the electronic device;
254. The method of any one of items 250-253, including criteria based on one or more parameters selected from the group consisting of:
[Item 255]
Displaying the media capture user interface includes displaying affordances for capturing media concurrently with the representation of the field of view of the one or more cameras, the method comprising:
a first comprising selecting the affordance to capture media while displaying the affordance to capture media and displaying the indication that the control is set to a third capture duration; detecting an input, wherein the selection of the affordances to capture media corresponds to the single request to capture an image corresponding to the field of view of the one or more cameras;
initiating capture of a fourth plurality of images over the first capture duration in response to detecting the first input corresponding to the affordance of capturing media;
254. The method of any one of items 250-254, further comprising:
[Item 256]
the indication that the control is set to the third capture duration is a first indication;
said first indication being displayed at a first location on said control corresponding to said third capture duration;
The method includes:
An animation that moves the first indication from the first position on the control to a second position on the control in response to detecting the first input corresponding to the affordance to capture media. and displaying
redisplaying the first indication at the first location on the control in response to displaying the first indication at the second location;
256. The method of item 255, further comprising:
[Item 257]
the indication that the control is set to the third capture duration is a second indication;
the second indication is displayed at a third location on the control corresponding to the third capture duration;
The method includes:
In response to detecting the first input corresponding to the affordance of capturing media,
displaying an animation that moves the second indication from the third position on the control to a fourth position on the control;
detecting a second change in a current condition of the electronic device while displaying the animation;
In response to detecting said second change in current conditions,
the third capture duration in response to determining that a second current condition satisfies a fourth capture duration criterion and in response to displaying the first indication at the fourth location; displaying the second indication at a fifth location on the control corresponding to a different fourth capture duration;
256. The method of item 256, further comprising:
[Item 258]
258. Any one of items 255-257, further comprising modifying a visual appearance of the media-capturing affordance in response to detecting the first input corresponding to the media-capturing affordance. described method.
[Item 259]
capturing media wherein a display of the affordance to capture the media is visually distinct from the affordance to capture the media in response to detecting the first input corresponding to the affordance to capture the media. 258. The method of any one of clauses 255-258, further comprising replacing with an indication of an affordance that terminates.
[Item 260]
posing the electronic device when the media capture is initiated and capturing media via the display device in response to detecting the first input corresponding to the affordance to capture the media; 260. The method of any one of clauses 255-259, further comprising displaying a visual indication of the difference between the pose of the electronic device at a first time after initiating the pose.
[Item 261]
after initiating capture of the first plurality of images for the first capture duration and prior to detecting the end of capturing the first plurality of images for the first capture duration;
displaying one or more low light mode animations in accordance with determining that the first capture duration exceeds a threshold;
ceasing to display the one or more low light mode animations upon determining that the first capture duration does not exceed a threshold;
256. The method of item 255, further comprising:
[Item 262]
While capturing said media,
from a plurality of images captured by the one or more cameras prior to the first time at a first time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a third composite image based on at least some content of
from a plurality of images captured by the one or more cameras prior to the second time at a second time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a fourth composite image based on at least some content of
the first time is different from the second time,
the representation of the third composite image is visually distinct from the representation of the fourth composite image;
and
261. The method of any one of items 242 and 246-261, further comprising:
[Item 263]
A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 242 and a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of paragraphs 246-262.
[Item 264]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 242 and 246-262.
[Item 265]
an electronic device,
a display device;
means for performing the method of any one of items 242 and 246-262;
An electronic device comprising:
[Item 266]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a first set of capture duration criteria are met, including criteria met when ambient light in the field of view of the one or more cameras exceeds a first threshold,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
A second set of criteria that are different from the first set of capture duration criteria and that are met when ambient light in the field of view of the one or more cameras is below the first threshold. according to the determination that the capture duration criteria of
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
display said controls for adjusting the capture duration to capture media, including
detecting an input corresponding to a tap input on a shutter affordance while the low-light camera mode is active and displaying the control for adjusting the capture duration for capturing media;
in response to detecting the input corresponding to the tap input on the shutter affordance;
the first capture in accordance with determining that the set of first capture duration criteria are met when the ambient light within the field of view of the one or more cameras exceeds the first threshold; capturing a first number of images over a duration and combining the first number of images into a single composite image;
the second capture in accordance with determining that the first set of capture duration criteria are met when the ambient light within the field of view of the one or more cameras is below the first threshold; capturing a second number of images greater than the first number of images over a duration of time and combining the second number of images into the single composite image;
generating said single composite image from a plurality of images;
A non-transitory computer-readable storage medium containing instructions.
[Item 267]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a first set of capture duration criteria are met, including criteria met when ambient light in the field of view of the one or more cameras exceeds a first threshold,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
A second set of criteria that are different from the first set of capture duration criteria and that are met when ambient light in the field of view of the one or more cameras is below the first threshold. according to the determination that the capture duration criteria of
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
display said controls for adjusting the capture duration to capture media, including
detecting an input corresponding to a tap input on a shutter affordance while the low-light camera mode is active and displaying the control for adjusting the capture duration for capturing media;
in response to detecting the input corresponding to the tap input on the shutter affordance;
the first capture in accordance with determining that the set of first capture duration criteria are met when the ambient light within the field of view of the one or more cameras exceeds the first threshold; capturing a first number of images over a duration and combining the first number of images into a single composite image;
the second capture in accordance with determining that the first set of capture duration criteria are met when the ambient light within the field of view of the one or more cameras is below the first threshold; capturing a second number of images greater than the first number of images over a duration of time and combining the second number of images into the single composite image;
generating said single composite image from a plurality of images;
An electronic device containing instructions.
[Item 268]
an electronic device,
a display device;
means for displaying a media capture user interface via the display device, comprising:
displaying a representation of the field of view of one or more cameras;
means and
means for displaying controls for adjusting the capture duration for capturing media while the low light camera mode is active;
Upon determining that a first set of capture duration criteria are met, including criteria met when ambient light in the field of view of the one or more cameras exceeds a first threshold,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
A second set of criteria that are different from the first set of capture duration criteria and that are met when ambient light in the field of view of the one or more cameras is below the first threshold. according to the determination that the capture duration criteria of
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
means, including
means for detecting an input corresponding to a tap input on a shutter affordance while the low light camera mode is active and displaying the control for adjusting the capture duration for capturing media;
means for generating a single composite image from a plurality of images in response to detecting the input corresponding to the tap input on the shutter affordance, comprising:
the first capture in accordance with determining that the set of first capture duration criteria are met when the ambient light within the field of view of the one or more cameras exceeds the first threshold; capturing a first number of images over a duration and combining the first number of images into the single composite image;
the second capture in accordance with determining that the first set of capture duration criteria are met when the ambient light within the field of view of the one or more cameras is below the first threshold; capturing a second number of images greater than the first number of images over a duration of time and combining the second number of images into the single composite image;
means, including
An electronic device comprising:
[Item 269]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after initiating media capture;
A method, including
[Item 270]
269. The method of item 269, wherein the set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a first capture duration that exceeds a threshold duration. .
[Item 271]
The visual indication is
a first set of one or more shapes representing the pose of the electronic device when the media capture is initiated, displayed at a first location on the media capture user interface; a set of one or more shapes;
a second set of one or more shapes representing the pose of the electronic device at the first time after starting media capture, displayed at a second location; a set of one or more shapes;
270. A method according to item 269 or 270, comprising a set of shapes comprising
[Item 272]
said first set of one or more shapes comprising a first color;
272. The method of item 271, wherein the second set of one or more shapes includes a second color different from the first color.
[Item 273]
detecting a change in pose of the electronic device at a second time after initiating capture;
said second set at a third location on said media capture user interface that is different than said second location on said media capture user interface in response to detecting said change in said pose of said electronic device; displaying one or more shapes of
273. The method of item 271 or 272, further comprising
[Item 274]
In response to detecting the change in the pose of the electronic device,
the difference between the first position of the first set of one or more shapes and the third position of the second set of one or more shapes is within a first threshold difference ceasing to display at least one of the first set of one or more shapes or the second set of one or more shapes, according to the determination of
a difference between the first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference maintaining display of the first set of one or more shapes or the second set of one or more shapes, according to a determination that the
274. The method of any one of paragraphs 271-273, further comprising:
[Item 275]
detecting a change in pose of the electronic device at a second time after initiating capture;
In response to detecting the change in the pose of the electronic device,
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after the media capture is initiated is a second threshold difference generating a tactile output in accordance with the determination that it is within;
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after media capture is initiated is the second threshold difference. ceasing to generate the tactile output in accordance with the determination that the
274. The method of any one of paragraphs 269-274, further comprising:
[Item 276]
Upon determination that a set of guidance criteria has been met,
275. The method of any one of items 269-275, further comprising displaying a representation corresponding to a request to stabilize the electronic device while capturing media.
[Item 277]
276. Any one of items 269 through 276, further comprising ceasing to display the visual indication of the difference via the display device upon determining that the set of guidance criteria are not met. The method described in .
[Item 278]
The visual indication is displayed at the first time, the method comprising:
detecting the end of the capture of the media at a third time different than the first time;
ceasing to display the visual indication via the display device in response to detecting the end of the capture of the media;
278. The method of any one of paragraphs 269-277, further comprising:
[Item 279]
269. A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising item 269. 279. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Claims 1-278.
[Item 280]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 269-278.
[Item 281]
an electronic device,
a display device and means for performing the method of any one of items 269 to 278;
An electronic device comprising:
[Item 282]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
A non-transitory computer-readable storage medium containing instructions.
[Item 283]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device containing instructions.
[Item 284]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device comprising:
[Item 285]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a criterion met when the first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras; placing said second portion of said field of view of said one or more cameras within said second region upon determining that a second set of respective criteria of less than one distance is met; ceasing to display in the first visual appearance;
including, including, a method.
[Item 286]
286. The method of item 285, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a first request to adjust focus settings of the electronic device while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
causing the electronic device to focus on a second respective object within the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device. configuring;
while the electronic device is configured to focus on the second respective object within the field of view of the one or more cameras;
A set of third respective criteria, including criteria met when the second respective objects within the fields of view of the one or more cameras are a third distance from the one or more cameras. ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance, according to determining that is satisfied;
286. The method of item 285 or 286, further comprising
[Item 288]
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras in said first visual appearance; detecting a first change in distance between the one or more cameras;
in response to detecting the first change in distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of fourth respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a fourth distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
287. The method of any one of paragraphs 285-287, further comprising:
[Item 289]
Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance;
stopping displaying in the second region at least a portion of a third portion of the field of view of the one or more cameras previously displayed in the second region; 288. The method of any one of items 285-288.
[Item 290]
Ceasing to display the second portion of the field of view of the one or more cameras within the second region in the first visual appearance includes a second visual appearance superimposed on the second region. 289. The method of any one of items 285-289, comprising increasing the opacity of the blackened layer of 1.
[Item 291]
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a second request to adjust focus settings of the electronic device while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance;
responsive to receiving the second request to adjust the focus setting of the electronic device to focus on a third respective object within the field of view of the one or more cameras; configuring;
while the electronic device is configured to focus on the third respective object within the field of view of the one or more cameras;
a set of fifth respective criteria comprising criteria met when said third respective objects within said fields of view of said one or more cameras are a fifth distance from said one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance within the second region, according to the determination that it is satisfied;
290. The method of any one of paragraphs 285-290, further comprising:
[Item 292]
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras is not displayed in said first visual appearance; detecting a second change in distance between the one or more cameras;
in response to detecting the second change in the distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of sixth respective criteria comprising criteria met when the first respective objects within the field of view of the one or more cameras are a sixth distance from the one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance within the second region, according to the determination that it is satisfied;
292. The method of any one of paragraphs 285-291, further comprising:
[Item 293]
Displaying the second portion of the field of view of the one or more cameras in the second region in the first visual appearance comprises: 293. The method of any one of items 285-292, comprising displaying a fourth portion of the field of view of the one or more cameras that was not previously displayed in the .
[Item 294]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance includes a second black superimposed on the second region. 294. The method of any one of paragraphs 285-293, comprising reducing the opacity of the layer.
[Item 295]
wherein the first visual appearance includes a first visual prominence, and displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
displaying an animation that progressively transitions the second portion of the field of view of the one or more cameras from a second visual appearance to the first visual appearance, wherein the second visual appearance is , having a second visual prominence different from the first visual prominence.
[Item 296]
said first portion being displayed in a third visual appearance different from said first visual appearance;
The method includes:
Capturing media while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance receiving a request to
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
content from the first portion of the field of view of the one or more cameras and the second portion of the field of view of the one or more cameras after capturing the media corresponding to the field of view of the one or more cameras; displaying a representation of the media, including content from part 2;
286. The method of item 285, further comprising:
[Item 297]
297. The method of any one of items 285-296, wherein at least a first portion of the second region is above the first region.
[Item 298]
298. The method of any one of items 285-297, wherein at least a second portion of the second region is below the second region.
[Item 299]
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
299. The method of any one of paragraphs 285-298, further comprising:
[Item 300]
300. The method of any one of items 285-299, wherein the second region is visually distinct from the first region when displayed in the first visual appearance.
[Item 301]
from item 285, wherein the set of first respective criteria includes criteria met when the first respective object is the closest object identified within the field of view of the one or more cameras; 300. The method of any one of clauses 300.
[Item 302]
302. Any of items 285 through 301, wherein the set of first respective criteria includes criteria met when the first respective object is at a position of focus within the field of view of the one or more cameras. or the method described in paragraph 1.
[Item 303]
the first region is separated from the second region by a boundary;
303. Any one of items 285 through 302, wherein the set of first respective criteria includes criteria met when a detected visual tear adjacent to the boundary is above a visual tear threshold level. The method described in .
[Item 304]
the set of first respective criteria includes criteria met when the first portion of the field of view of the one or more cameras is a portion of the field of view of a first camera;
303, wherein said set of second respective criteria includes criteria met when said second portion of said field of view of said one or more cameras is part of the field of view of a second camera; The method according to any one of .
[Item 305]
receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the one or more cameras and the one or more cameras in response to receiving the request to edit the captured media; displaying a representation of the captured media including at least a portion of the content from the second portion of the field of view;
305. The method of any one of paragraphs 285-304, further comprising:
[Item 306]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 285-305.
[Item 307]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 285-305.
[Item 308]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 285 to 305;
An electronic device comprising:
[Item 309]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside and visually distinct from the first region, wherein:
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a criterion met when the first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras; placing said second portion of said field of view of said one or more cameras within said second region upon determining that a second set of respective criteria of less than one distance is met; ceasing to display in the first visual appearance;
including,
display the camera user interface,
A non-transitory computer-readable storage medium containing instructions.
[Item 310]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A camera user interface comprising:
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a criterion met when the first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras; placing said second portion of said field of view of said one or more cameras within said second region upon determining that a second set of respective criteria of less than one distance is met; ceasing to display in the first visual appearance;
including,
display the camera user interface,
An electronic device containing instructions.
[Item 311]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a criterion met when the first respective object within the field of view of the one or more cameras is a second distance from the one or more cameras; placing said second portion of said field of view of said one or more cameras within said second region upon determining that a second set of respective criteria of less than one distance is met; ceasing to display in the first visual appearance;
including,
means and
An electronic device comprising:
[Item 312]
a method,
An electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera,
displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A method, including
[Item 313]
313. The method of item 312, wherein the first portion of the field of view of the second camera is different than the second portion of the field of view of the second camera.
[Item 314]
displaying the representation of the second portion of the field of view of the first camera in the first region at the second zoom level; and displaying the representation of the second portion of the field of view of the first camera in the second region at the second zoom level. and while displaying the representation of the second portion of the field of view of the second camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a third receiving a second request to increase to the zoom level;
in response to receiving the second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level;
According to determining that the third zoom level is within the first zoom value range,
displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first region;
displaying a representation of a fourth portion of the field of view of the first camera at the third zoom level in the second region;
314. The method of item 312 or 313, further comprising:
[Item 315]
displaying the representation of the third portion of the field of view of the first camera in the first region at the third zoom level; and displaying the representation of the third portion of the field of view of the first camera in the second region at the third zoom level. and, while displaying the representation of the fourth portion of the field of view of the first camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth receiving a third request to increase to the zoom level;
in response to receiving the third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level;
According to determining that the fourth zoom level is within a second range of zoom values,
displaying a representation of a fifth portion of the field of view of the third camera excluding at least a subset of the third portion of the field of view of a third camera at the fourth zoom level in the first region; and
without displaying in the second region a representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in the region of displaying a representation of a fifth portion of the field of view of a camera;
314. The method of item 314, further comprising:
[Item 316]
the fifth portion of the field of view of the third camera excluding at least the subset of the third portion of the field of view of the third camera in the first region at the fourth zoom level; and in the second region the representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in said second region without displaying while displaying the representation of the fifth portion of the field of view of the first camera overlapping with the subset of receiving a fourth request to increase to a fifth zoom level;
in response to receiving said fourth request to increase said zoom level of said representation of said portion of said field of view of said one or more cameras to said fifth zoom level;
According to determining that the fifth zoom level is within a third zoom value range,
displaying a representation of a sixth portion of the field of view of the third camera at the fifth zoom level in the first region;
displaying a representation of a seventh portion of the field of view of the third camera at the fifth zoom level in the second region;
316. The method of item 315, further comprising:
[Item 317]
displaying the representation of the sixth portion of the field of view of the third camera in the first region at the fifth zoom level; and displaying the representation of the sixth portion of the field of view of the third camera in the second region at the fifth zoom level. and, while displaying the representation of the seventh portion of the field of view of the third camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth receiving a first request to down zoom level;
in response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level;
following determining that the sixth zoom level is within a fourth range of zoom values for display within the second region;
a representation of an eighth portion of the field of view of the third camera that excludes at least a subset of the third portion of the field of view of the third camera at the sixth zoom level in the first region; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said eighth portion of said field of view of said third camera at said sixth zoom level in the region of displaying a representation of an eighth portion of the field of view of a camera;
316. The method of item 316, further comprising:
[Item 318]
in said first region, at said sixth zoom level, without displaying said representation of at least said subset of said eighth portion of said field of view of said first camera in said first region; displaying the representation of the eighth portion of the field of view of the third camera overlapping at least a subset of the eighth portion of the field of view of the first camera; while displaying said representation of said eighth portion of said field of view of said first camera excluding at least said subset of said eighth portion of said field of view of said first camera at a zoom level of , receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level;
in response to receiving the second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level;
According to determining that the seventh zoom level is within a fifth zoom value range,
displaying a representation of a ninth portion of the field of view of the first camera at the seventh zoom level in the first region;
displaying a representation of a tenth portion of the field of view of the first camera at the seventh zoom level in the second region;
318. The method of item 317, further comprising:
[Item 319]
318. The method of any one of clauses 312-318, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
319. The method of any one of items 312-319, further comprising:
[Item 321]
A request to capture media while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level. and receiving
responsive to receiving the request to capture media, capturing media corresponding to the field of view of the one or more cameras, the media being captured at the first zoom level at the first zoom level; and content from the first portion of the field of view of the second camera at the first zoom level;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and the displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the second camera at a first zoom level;
313. The method of item 312, further comprising:
[Item 322]
configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera 321, wherein the one or more programs comprise instructions for performing the method of any one of items 312-321. Temporary computer-readable storage medium.
[Item 323]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 312-321.
[Item 324]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than said field of view of said first camera; means for performing the method of any one of items 312 to 321;
An electronic device comprising:
[Item 325]
configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera a non-transitory computer-readable storage medium storing one or more programs, the one or more programs comprising:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A non-transitory computer-readable storage medium containing instructions.
[Item 326]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
An electronic device containing instructions.
[Item 327]
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more cameras;
means for displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
means, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; means for receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
means and
An electronic device comprising:
[Item 328]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
Receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed at the first zoom affordance; and
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A method, including
[Item 329]
Maintaining visual characteristics of the second zoom affordance and modifying visual characteristics of the first zoom affordance in accordance with the determination that the first gesture is the gesture directed at the first zoom affordance. and
maintaining the visual properties of the first zoom affordance and the visual properties of the second zoom affordance in accordance with the determination that the first gesture is the gesture directed at the second zoom affordance; and
328. The method of item 328, further comprising:
[Item 330]
Changing the visual property of the first zoom affordance includes:
resizing the first zoom affordance from a first size to a second size, wherein the second size of the first zoom affordance is the current size of the second zoom affordance that is different from and
changing the color of the first zoom affordance from a first color to a second color, wherein the second color of the first zoom affordance is the current color of the second zoom affordance; that is different from
329. The method of item 329, comprising one or more of
[Item 331]
performing a second gesture directed at the first zoom affordance while displaying the second representation of the at least a portion of the field of view of the one or more cameras at the second zoom level; to receive;
in response to receiving the second gesture directed at the first zoom affordance;
a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, in accordance with determining that the first zoom affordance satisfies a first respective criterion; and displaying
Upon determining that the first zoom affordance satisfies a second respective criterion,
Ceasing to display the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level;
maintaining display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level;
330. The method of any one of paragraphs 328-330, further comprising:
[Item 332]
The first gesture is a first type gesture, and the method includes:
receiving a third gesture directed at the first zoom affordance, the third gesture being a second type gesture different from the first type gesture; ,
responsive to receiving the third gesture directed at the first zoom affordance, displaying a control for changing the zoom level of the first currently displayed representation; said control for changing said zoom level of said currently displayed representation of includes a first indication of a current zoom level of said first currently displayed representation;
receiving a fourth gesture directed at the control for changing the zoom level while displaying the control for changing the zoom level of the first currently displayed representation; and
in response to receiving the fourth gesture directed at the control for changing the zoom level;
displaying a second indication of a fifth zoom level on the control for changing the zoom level;
displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level;
332. The method of any one of paragraphs 328-331, further comprising:
[Item 333]
The first indication of the zoom level of the first currently displayed representation is a selected zoom on the control for changing the zoom level of the first currently displayed representation. 333. The method of item 332, displayed at a position corresponding to the level.
[Item 334]
334. Method according to item 332 or 333, wherein the control for changing the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
Displaying the control for changing the zoom level of the first currently displayed representation causes displaying of the plurality of zoom affordances to the zoom level of the first currently displayed representation. 334. The method of any one of clauses 332-334, including replacing the display of the control to change the .
[Item 336]
the third gesture includes movement in a first direction;
335. The method according to any one of items 332 to 335, wherein said fourth gesture comprises movement in a second direction different from said first direction.
[Item 337]
detecting liftoff of the fourth gesture after receiving the fourth gesture directed at the control to change the zoom level;
After detecting liftoff of the fourth gesture,
ceasing displaying the control for changing the zoom level upon determining that there has been no gesture directed at the control for changing the zoom level within a predetermined time frame;
336. The method of any one of paragraphs 332-336, further comprising:
[Item 338]
displaying the control for changing the zoom level of the first currently displayed representation;
displaying a plurality of visual indicators simultaneously on an adjustable control, wherein each zoom level of said plurality of zoom levels corresponding to said plurality of zoom affordances is a different corresponding visual indicator of said plurality of visual indicators; 338. The method of any one of items 332-337, comprising being represented by:
[Item 339]
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed at at least one of the plurality of zoom affordances and is directed at a first portion of the first representation; 338. The method of any one of items 328-338, further comprising configuring the electronic device to focus on a position of .
[Item 340]
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed to at least one of the plurality of zoom affordances and is directed to a second portion of the first representation; 339. The method of any one of clauses 328-339, further comprising discontinuing configuring the electronic device to focus on a position of .
[Item 341]
said second representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a first camera of said one or more cameras;
said third representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a second camera of said one or more cameras;
340. The method of any one of items 328-340, wherein the first camera is different than the second camera.
[Item 342]
displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level;
displaying a portion of the second representation in a first visual appearance in accordance with determining that the second zoom level is a sixth zoom level;
rendering a portion of the second representation a second visual appearance different from the first visual appearance in accordance with determining that the second zoom level is a seventh zoom level different from the sixth zoom level; and display with
342. The method of any one of paragraphs 328-341, comprising:
[Item 343]
the plurality of zoom affordances includes a third zoom affordance;
The method includes:
receiving a request to change the zoom level of the second currently displayed representation;
in response to receiving the request to change the zoom level of the second currently displayed representation to an eighth zoom level;
Replacing the display of the first zoom affordance with the display of a fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within the first zoom value range. When,
replacing the display of the second zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a second zoom value range. and
replacing the display of the third zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a third zoom value range. and
342. The method of any one of paragraphs 328-342, further comprising:
[Item 344]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 328-343.
[Item 345]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 328-343.
[Item 346]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 328 to 343;
An electronic device comprising:
[Item 347]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A non-transitory computer-readable storage medium containing instructions.
[Item 348]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
An electronic device containing instructions.
[Item 349]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, said plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
means for receiving, while displaying the plurality of zoom affordances, a first gesture directed at one of the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
means and
An electronic device comprising:
[Item 350]
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode; and
ceasing displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; and
A method, including
[Item 351]
351. The method of item 350, wherein the second set of camera setting affordances are settings that adjust image capture for the second camera mode.
[Item 352]
352. Method according to item 350 or 351, wherein the second set of camera setting affordances is different than the first set of camera setting affordances.
[Item 353]
The first set of camera setting affordances is one of a flash setting affordance, an image capture setting affordance, an aspect ratio camera setting affordance, a filter setting camera setting affordance, a high dynamic range imaging camera setting affordance, and a low light camera setting affordance. 353. The method of any one of items 350-352, including one or more.
[Item 354]
Detecting the first gesture includes detecting a first contact directed at the camera user interface, the method comprising:
detecting completion of the first gesture before detecting lift-off of the first contact while detecting the first gesture;
providing a tactile output in response to detecting completion of the first gesture prior to detecting lift-off of the first contact;
354. The method of any one of paragraphs 350-353, further comprising:
[Item 355]
detecting a third gesture directed at the camera user interface while displaying the camera user interface;
in response to detecting the third gesture directed at the camera user interface;
In accordance with determining that the second set of camera setting affordances were being displayed when the third gesture was detected,
configuring the electronic device to capture media in a third camera mode;
displaying a third set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
According to determining that the first plurality of camera mode affordances were being displayed when the third gesture was detected,
a second plurality indicating different camera operating modes of the one or more cameras in the first position without displaying the second set of camera setting affordances and the third set of camera setting affordances; and configuring the electronic device to capture media in the first camera mode and the third camera mode, the second plurality of camera mode affordances comprising: different from the first plurality of camera mode affordances;
354. The method of any one of paragraphs 350-354, further comprising:
[Item 356]
Displaying the third set of camera setting affordances at the first location displays an animation of the third set of camera setting affordances replacing the first set of camera setting affordances. 356. The method of item 355, comprising
[Item 357]
wherein the representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras, the method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a second representation of a second portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media via a first type of camera; 356, further comprising: wherein the second portion of the field of view does not include a portion of the first portion of the field of view of the one or more cameras. The method described in section.
[Item 358]
wherein said representation of said field of view of said one or more cameras is a third representation of a third portion of said field of view of said one or more cameras, said method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a fourth representation of a fourth portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media using a second type of camera; wherein said fourth portion of said field of view of said one or more cameras includes a portion of said field of view of said one or more cameras that is not in said third portion of said field of view of said one or more cameras. 358. The method of any one of paragraphs 350-357, further comprising comprising:
[Item 359]
said representation of said field of view of said one or more cameras is a fifth representation of a fifth portion of said field of view of said one or more cameras;
the fifth representation is displayed at a second location on the display device;
The method includes:
in response to receiving the second gesture directed at the camera user interface;
Following determining that the electronic device is configured to capture media using a third type of camera,
359. Method according to item 357 or 358, further comprising moving the fifth representation from the second position on the display device to a third position on the display device.
[Item 360]
the first camera mode is a portrait mode;
the representation of the field of view of the one or more cameras is displayed at a first zoom level;
The method includes:
while displaying the first plurality of camera mode affordances;
displaying affordances and zoom affordances for controlling lighting effects operation;
receiving a fourth gesture directed at the zoom affordance while displaying the zoom affordance;
displaying a representation of the field of view of the one or more cameras at a second zoom level in response to receiving the fourth gesture directed at the zoom affordance;
359. The method of any one of paragraphs 350-359, further comprising:
[Item 361]
The first plurality of camera mode affordances includes:
a first camera mode affordance that, when selected, causes the electronic device to capture media in the first camera mode in response to a request to capture media;
a second camera mode affordance that, when selected, causes the electronic device to capture media in the second camera mode in response to a request to capture media;
360. The method of any one of items 350-360, comprising
[Item 362]
362. The method of item 361, wherein while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed adjacent to the second camera mode affordance.
[Item 363]
Prior to detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordances are selected from the first 363. Method according to item 361 or 362, displayed with an indication that camera mode is active.
[Item 364]
detecting a fifth gesture directed at the camera user interface while displaying the second set of camera setting affordances at the first location;
in response to detecting the fifth gesture directed at the camera user interface;
displaying a third plurality of camera mode affordances indicative of different camera operating modes of the one or more cameras;
the third plurality of camera mode affordances includes the second camera mode affordance;
the second camera mode affordance is displayed with an indication that the second camera mode is active;
and
364. The method of item 362 or 363, further comprising:
[Item 365]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 350-364.
[Item 366]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 350-364.
[Item 367]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 350 to 364;
An electronic device comprising:
[Item 368]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
A non-transitory computer-readable storage medium containing instructions.
[Item 369]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying at the first position a first set of camera setting affordances, the settings for adjusting image capture in a first camera mode, the first set of camera setting affordances;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
An electronic device containing instructions.
[Item 370]
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
means, including
means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first position;
means and
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; means for receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
means and
An electronic device comprising:
[Item 371]
a method,
In an electronic device equipped with a display device,
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receiving a request to display the representation;
in response to receiving the request to display the representation of the previously captured media item;
According to the determination that the automatic media correction criteria are met,
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item;
According to the determination that the automatic media correction criteria are not met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content;
displaying a second auto-adjusting affordance indicating that the auto-adjusting was not applied to the previously captured media item, the second auto-adjusting affordance being equal to the first auto-adjusting affordance; that it is visually different from
A method, including
[Item 372]
displaying, via the display device, a camera user interface prior to receiving the request to display the representation of the previously captured media item, the camera user interface comprising:
a first region containing a representation of the first portion of the field of view of the one or more cameras;
A second region containing a representation of the second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras comprises the first a second region visually distinct from said representation of a portion of
372. The method of item 371, further comprising:
[Item 373]
(cancel).
[Item 374]
displaying the first auto-adjusting affordance and, via the display device, displaying the representation of the previously captured media item including the combination of the first content and the second content; receiving a first input corresponding to a selection of the first auto-tuning affordance while in;
including the first content and excluding the second content via the display device in response to receiving the first input corresponding to selection of the first auto-adjusting affordance; displaying the representation of the previously captured media item;
372. The method of item 371, further comprising:
[Item 375]
Displaying the second auto-adjusting affordance and displaying, via the display device, the representation of the previously captured media item including the first content and excluding the second content. while receiving a second input corresponding to the selection of the second auto-tuning affordance;
the previous including the combination of the first content and the second content via the display device in response to receiving the second input corresponding to selection of the second auto-adjusting affordance; displaying said representation of a media item captured in
372. The method of item 371, further comprising:
[Item 376]
the previously captured media item is an image;
said representation of said previously captured media item comprising said combination of said first content and said second content includes an edge portion;
said representation of said previously captured media item including said first content and not including said second content further does not include said edge portion;
375. The method of any one of items 371, 372 and 374 or 375.
[Item 377]
the previously captured media item is a video;
said representation of said previously captured media item including said combination of said first content and said second content includes a first amount of movement;
the representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different than the first amount of movement;
376. The method of any one of items 371, 372, and 374-376.
[Item 378]
the previously captured media item includes an identifiable object;
said representation of said previously captured media item including said combination of said first content and said second content includes a portion of said identifiable object;
said representation of said previously captured media item that includes said first content and does not include said second content does not include said portion of said identifiable object;
377. The method of any one of items 371, 372, and 374-377.
[Item 379]
The automatic media correction criteria are one or more visions by which the previously captured media items can be corrected using the second content from the second portion of the field of view of the one or more cameras. 378. The method of any one of items 371, 372, and 374-378, including a second criterion that is met when determined to contain an aspect.
[Item 380]
379. The method of clause 379, wherein the automatic media correction criteria include a third criterion met when the second criterion was met before the previously captured media item was displayed.
[Item 381]
the first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with determining that automatic media correction criteria are met; displaying a third auto-adjusting affordance that, when selected, causes the electronic device to perform a first action concurrently with the representation of the previously captured media item comprising a combination of items 371, 372, and 374-380.
[Item 382]
of items 371, 372, and 374 to 381, wherein the automatic media correction criteria include criteria that are met when the auto-apply setting is enabled and not met when the auto-apply setting is disabled. A method according to any one of paragraphs.
[Item 383]
382. The method of any one of items 371, 372, and 374-382, wherein the automatically applied setting is a user configurable setting.
[Item 384]
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
Concurrently selecting the representation of the previously captured media item that includes the first content and does not include the second content in accordance with a determination that a first set of criteria is met. 384. The method of any one of clauses 371, 372, and 374-383, further comprising displaying a fourth auto-adjusting affordance that, when prompted, causes the electronic device to perform a second action.
[Item 385]
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
concurrently with the representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that the first set of criteria is not met; 384. The method of any one of items 371, 372, and 374-384, further comprising displaying a non-selectable indicator.
[Item 386]
in response to receiving the request to display the representation of the previously captured media item;
displaying a content processing indicator in accordance with determining that the content processing criteria are met;
ceasing to display the content processing indicator in accordance with a determination that the content processing criteria are not met;
385. The method of any one of paragraphs 371, 372, and 374-385, further comprising:
[Item 387]
387. The method of clause 386, further comprising: while displaying the content handling indicator and in accordance with determining that the content handling criteria are no longer met, stopping displaying the content handling indicator.
[Item 388]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; and according to a determination that the content processing criteria are no longer met, rendering the representation of the previously captured media item that includes the first content and does not include the second content to the first media item; 386. The method of clause 386, further comprising replacing with the representation of the previously captured media item that includes a combination of content of and the second content.
[Item 389]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; displaying a second representation of the previously captured media item that includes the first content and does not include the second content;
while displaying the second representation of the previously captured media item that includes the first content and does not include the second content, and the content processing criteria are no longer met; rendering the second representation of the previously captured media item, including the first content and excluding the second content, to the first content and the second content. replacing with a second representation of the previously captured media item that includes a combination of content;
386. The method of item 386, further comprising:
[Item 390]
including the first content and including the second content while displaying the representation of the previously captured media item including a combination of the first content and the second content; displaying an animation of the representation of the previously captured media item comprising a combination of the first content and the second content, transitioning to the representation of the previously captured media item; 389. The method of any one of items 371, 372, and 374-389, further comprising.
[Item 391]
combining the first content and the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content; displaying an animation of the representation of the previously captured media item that includes the first content and does not include the second content, transitioning to the representation of the previously captured media item that includes 390. The method of any one of paragraphs 371, 372, and 374-390, further comprising:
[Item 392]
A media item that includes third content from the first portion of the field of view of one or more cameras and does not include fourth content from the second portion of the field of view of the one or more cameras. receiving a request to display a representation of
including third content from the first portion of the field of view of the one or more cameras and excluding fourth content from the second portion of the field of view of the one or more cameras; Additional media content outside the first portion of the field of view of the one or more cameras is available in response to receiving the request to display the representation of the previously captured media item. ceasing to display the indication that there is
392. The method of any one of items 371, 372, and 374-391, further comprising:
[Item 393]
A non-transitory computer readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being item 371 , 372, and 374-392.
[Item 394]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of items 371, 372 and 374-392.
[Item 395]
an electronic device,
a display device;
means for performing the method of any one of items 371, 372, and 374-392;
An electronic device comprising:
[Item 396]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
According to the determination that the automatic media correction criteria are met,
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item;
According to the determination that the automatic media correction criteria are not met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance; different to
A non-transitory computer-readable storage medium containing instructions.
[Item 397]
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
According to the determination that the automatic media correction criteria are met,
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item;
According to the determination that the automatic media correction criteria are not met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance; different to
An electronic device containing instructions.
[Item 398]
an electronic device,
a display device;
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; means for receiving a request to display a representation;
in response to receiving the request to display the representation of the previously captured media item;
According to the determination that the automatic media correction criteria are met,
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content;
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item;
According to the determination that the automatic media correction criteria are not met,
displaying, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content;
displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, the second auto-adjustment affordance being visually distinct from the first auto-adjustment affordance; different to
means and
An electronic device comprising:
[Item 399]
236. any one of items 219 through 235, wherein the adjustable controls for selecting time-based representations of the first visual media corresponding to respective times are displayed at respective locations on the display device; described method.
[Item 400]
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A method, including
[Item 401]
the media capture user interface includes a media capture affordance;
401. The method of item 400, wherein receiving the request to capture media includes detecting selection of the media capture affordance.
[Item 402]
displaying the visual indication of one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device;
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance following determining that the pose of the electronic device has changed in a second manner different from the first manner;
402. The method of item 400 or 401, comprising
[Item 403]
Displaying the visual indication simultaneously
displaying the visual indication having visual characteristics indicative of a first difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device;
displaying the visual indication having a visual characteristic that indicates a second difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device; the first difference and the second difference are different types of difference;
403. The method of any one of items 400-402, comprising:
[Item 404]
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture was initiated and a first portion of the visual indication representing the current pose of the electronic device. 2, and
In response to detecting movement of the electronic device at the first time after initiating media capture, displaying the visual indication may include moving the electronic device after initiating media capture. 404. The method of any one of items 400-403, comprising displaying at least one of the first portion and the second portion of the visual indication with an appearance that changes in response to a change in the pose. the method of.
[Item 405]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of rotation of the electronic device. 404. The method of any one of items 400-404, comprising displaying the portion of the visual indication rotated by a rotation amount of one.
[Item 406]
detecting rotational movement of the electronic device at a second time after initiating media capture while displaying the portion of the visual indication rotated by the first amount;
responsive to detecting rotational movement of the electronic device at the second time after initiating media capture, a second amount of rotation determined based on the amount of rotational movement detected; rotating the portion of the indication, wherein the second amount of rotation is different than the first amount of rotation;
406. The method of item 405, further comprising:
[Item 407]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of movement of the electronic device. 407. The method of any one of items 400-406, comprising displaying the portion of the visual indication having a skew amount of one.
[Item 408]
detecting movement of the electronic device at a third time after initiating media capture while displaying the portion distorted by the first skew amount;
displaying the portion having a second skew amount in response to detecting movement of the electronic device at the third time after starting media capture, wherein the second skew amount. is different from the first skew amount, and
408. The method of item 407, further comprising:
[Item 409]
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on a position of the electronic device. 409. The method of any one of items 400-408, including displaying the portion of the visual indication at a position of .
[Item 410]
detecting translation of the electronic device at a fourth time after initiating media capture while displaying the portion of the visual indication at the first location;
responsive to detecting translation of the electronic device at the fourth time after initiating media capture, moving the visual indication to a second position determined based on translation of the electronic device; displaying a portion, wherein the second position is different than the first position;
409. The method of item 409, further comprising:
[Item 411]
410. The method of any one of items 400-410, wherein the visual indication indicates the magnitude of the one or more differences.
[Item 412]
at a first time the pose of the electronic device is different from the pose of the electronic device when media capture is initiated;
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture is initiated, displayed at a first location on the media capture user interface. ,
The visual indication is at a second location on the media capture user interface that is different than the first location on the media capture user interface, and a second location of the visual indication representing the current pose of the electronic device. 412. The method of any one of items 400-411, comprising parts 2.
[Item 413]
after displaying the first portion of the visual indication at the first location and displaying the second portion of the visual indication at the second location and while capturing the media. , detecting movement of the electronic device at a fifth time after initiating media capture;
In response to detecting movement of the electronic device at the fifth time after beginning media capture,
according to determining that the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts; displaying the first portion of the visual indication at the second location on the media user interface, wherein the first portion of the visual indication and the second portion of the visual indication; that the parts overlap each other;
413. The method of item 412, further comprising:
[Item 414]
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
414. The method of any one of items 400-413, wherein the portion of the displayed visual indication changes in response to movement of the electronic device being detected.
[Item 415]
detecting movement of the electronic device at a seventh time after beginning media capture;
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
ceasing displaying the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device does not exceed a second movement threshold;
415. The method of any one of paragraphs 400-414, further comprising:
[Item 416]
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
further comprising continuing to display the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device exceeds a second movement threshold; 415. The method of item 415.
[Item 417]
417. The method of any one of items 400-416, wherein the set of guidance criteria includes criteria that are met when a low light mode is active.
[Item 418]
418. Any one of items 400-417, wherein the set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a capture duration greater than a threshold duration. The method described in .
[Item 419]
419. The method of any one of items 400-418, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras.
[Item 420]
detecting movement of the electronic device at an eighth time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the eighth time after beginning media capture,
stopping media capture in accordance with determining that the detected movement of the electronic device exceeds a second movement threshold;
419. The method of any one of paragraphs 400-419, further comprising:
[Item 421]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more is a non-transitory computer-readable storage medium comprising instructions for performing the method of any one of items 400-420.
[Item 422]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of items 400-420.
[Item 423]
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of items 400 to 420;
An electronic device comprising:
[Item 424]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A non-transitory computer-readable storage medium containing instructions.
[Item 425]
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
An electronic device containing instructions.
[Item 426]
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
means for detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
means and
An electronic device comprising:
[Item 427]
a method,
In a computer system having one or more cameras in communication with one or more display devices and one or more input devices,
displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode in accordance with determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A method, including
[Item 428]
the camera user interface includes selectable user interface objects for capturing media;
Disabling the selectable user interface object for capturing media while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold. is,
While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is above the threshold, the selectable user interface object for capturing media is enabled. 427. The method of item 427, wherein:
[Item 429]
according to the determining that the selectable user interface object for capturing media is disabled, the selectable user interface object for capturing media is displayed in a first visual appearance;
According to the determining that the selectable user interface object for capturing media is enabled, the selectable user interface object for capturing media has a second visual appearance different from the first visual appearance. 428. The method of item 428, displayed in a visual appearance.
[Item 430]
the camera user interface includes selectable user interface objects for capturing media;
Regardless of whether the available light exceeds the threshold while the camera preview is displayed at the second zoom level, the selectable user interface object for capturing media is enabled. 429. The method of any one of paragraphs 427-429, wherein
[Item 431]
further comprising displaying guidance to switch the zoom level while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold; 430. The method of any one of items 427-430.
[Item 432]
ceasing display of guidance to switch between zoom levels while the camera preview is displayed at the second zoom level regardless of whether the amount of available light exceeds the threshold; 432. The method of any one of items 427-431.
[Item 433]
Further comprising displaying guidance to enable a flash mode while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold. , items 427-432.
[Item 434]
434. The method of any one of items 427-433, wherein the first zoom level is higher than the second zoom level.
[Item 435]
the computer system includes one or more depth sensors;
While the camera preview is being displayed at the first zoom level and in accordance with determining that the available light is below a threshold, the one or more depth sensors are adjusted to the first depth at a first accuracy. enabling determination of depth information for the field of view of the one or more cameras at one zoom level;
While the camera preview is being displayed at the second zoom level and upon determining that the available light is below a threshold, the one or more depth sensors are greater than the first accuracy. 435. The method of any one of items 427 to 434, facilitating the determination of depth information for the field of view of the one or more cameras at the second zoom level with a second accuracy.
[Item 436]
While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold, the selectable user interface object for changing the zoom level comprises: 436. The method of any one of items 427-435, including an indication corresponding to a low light capture mode.
[Item 437]
While the camera preview is displayed at the second zoom level, the selectable user interface object for changing the zoom level is selected regardless of whether the amount of available light exceeds the threshold. 437. The method of any one of items 427-436, not including an indication corresponding to low light capture mode.
[Item 438]
receiving a request to capture media while the low light capture mode is enabled;
initiating capture of multiple images for a capture duration in response to receiving the request to capture media;
After initiating capture of the plurality of images for the capture duration, generating a composite image including content of at least a portion of the plurality of images, the composite image being one of the plurality of images. being visually brighter than one or more;
438. The method of any one of paragraphs 427-437, further comprising:
[Item 439]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one A non-transitory computer-readable storage medium in communication with any of the above display devices and one or more input devices, the one or more programs comprising instructions for performing the method of any one of items 427-438. .
[Item 440]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise instructions to perform the method of any one of items 427-438;
computer system.
[Item 441]
a computer system,
439. One or more cameras, wherein the computer system communicates with one or more display devices and one or more input devices, and any one of items 427 to 438. a means for carrying out the method;
A computer system comprising:
[Item 442]
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one in communication with one or more display devices and one or more input devices, the one or more programs comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A non-transitory computer-readable storage medium containing instructions.
[Item 443]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
including instructions,
computer system.
[Item 444]
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
Means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
means for detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
means and
A computer system comprising:

Claims (444)

方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
A method, including
条件の前記変化を検出したことに応じて、
前記第1及び第2の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンス及び前記第2のコントロールアフォーダンスを同時に表示すること、
を更に含む、請求項1に記載の方法。
In response to detecting said change in conditions,
simultaneously displaying the first control affordance and the second control affordance in accordance with determining that the first and second predetermined conditions are met;
2. The method of claim 1, further comprising:
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないとの判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示することをやめることと、
前記第1の既定の条件が満たされておらず、かつ前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する一方で、前記第1のコントロールアフォーダンスを表示することをやめることと、
を更に含む、請求項1又は2に記載の方法。
In response to detecting said change in conditions,
displaying the first control affordance while displaying the second control affordance in accordance with a determination that the first predetermined condition is satisfied and the second predetermined condition is not satisfied; ceasing to display and
displaying the first control affordance while displaying the second control affordance in accordance with determining that the first predetermined condition is not met and the second predefined condition is met; and stop displaying
3. The method of claim 1 or 2, further comprising:
前記1つ以上のカメラの前記視野内の光量が第1の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンスである、請求項1から3のいずれか一項に記載の方法。 When the amount of light within the field of view of the one or more cameras is below a first predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control flash operation. A method according to any one of claims 1 to 3. 前記電子デバイスが第1のタイプのアクセサリに接続されていると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、タイマー動作を制御するアフォーダンスである、請求項1から4のいずれか一項に記載の方法。 5. Claims 1 to 4, wherein when the electronic device is connected to a first type of accessory, the first predetermined condition is met, and the first control affordance is the affordance of controlling timer operation. The method according to any one of . 前記1つ以上のカメラの前記視野内の光量が第2の所定の閾値を下回ると、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンスである、請求項1から5のいずれか一項に記載の方法。 When the amount of light within the field of view of the one or more cameras falls below a second predetermined threshold, the first predetermined condition is met and the first control affordance is an affordance to control low light capture mode. 6. A method according to any one of claims 1 to 5, wherein 第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスは、照明効果動作を制御するアフォーダンスである、請求項1から6のいずれか一項に記載の方法。 when the electronic device is configured to capture an image in a first capture mode, the first predetermined condition is met and the first control affordance is an affordance for controlling lighting effect operation; 7. The method of any one of claims 1-6, wherein 前記照明効果動作を制御する前記アフォーダンスを表示している間に、前記照明効果動作を制御する前記アフォーダンスの選択を受信することと、
前記照明効果動作を制御する前記アフォーダンスの前記選択を受信したことに応じて、調整されると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、請求項7に記載の方法。
receiving a selection of the affordance for controlling the light effect operation while displaying the affordance for controlling the light effect operation;
the lighting effect, which, when adjusted, adjusts the lighting effect applied to the representation of the field of view of the one or more cameras in response to receiving the selection of the affordance that controls the lighting effect operation; displaying affordances for modulating behavior;
8. The method of claim 7, further comprising:
前記第1のコントロールアフォーダンスを表示している間に、同時に、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションを表示すること、
を更に含む、請求項1から8のいずれか一項に記載の方法。
simultaneously displaying an indication of a current state of a characteristic of the electronic device associated with the first control affordance while displaying the first control affordance;
9. The method of any one of claims 1-8, further comprising:
前記特性は、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することは、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるとの判定に従う、請求項9に記載の方法。 The characteristic has one or more active states and one or more inactive states, and displaying the indication indicates that the characteristic is in at least one of the one or more active states. 10. The method of claim 9, according to the determination of 前記特性は、第1のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が有効化されていることである、請求項9又は10に記載の方法。 11. A method according to claim 9 or 10, wherein said property is a first flash operation setting and said current state of said property is that flash operation is enabled. 前記特性は、第2のフラッシュ動作設定であり、前記特性の前記現在の状態は、フラッシュ動作が無効化されていることである、請求項9に記載の方法。 10. The method of claim 9, wherein the property is a second flash operation setting and the current state of the property is flash operation disabled. 前記特性は、画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、静止画像及びビデオをキャプチャするように構成されている、請求項9から12のいずれか一項に記載の方法。 The characteristic is an image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and the electronic device responds to input corresponding to a request to capture media. 13. A method according to any one of claims 9 to 12, wherein the method is adapted to capture still images and video with a device. 前記特性は、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態は、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスは、メディアをキャプチャする要求に対応する入力に応じて、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、請求項9から13のいずれか一項に記載の方法。 The property is a second image capture mode setting, the current state of the property is that the second image capture mode is enabled, and the electronic device requests to capture media. 14. A method according to any one of claims 9 to 13, adapted to capture media using high dynamic range imaging effects in response to an input corresponding to . 前記カメラコントロール領域は、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションは、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、請求項9から14のいずれか一項に記載の方法。 The camera control area is displayed adjacent a first side of the display device and the indication is displayed adjacent a second side of the display device opposite the first side. 15. The method of any one of claims 9-14, wherein 前記1つ以上のカメラの前記視野の前記表現は、前記第1のコントロールアフォーダンス及び/又は前記第2のコントロールアフォーダンスを含む前記カメラユーザインタフェースの一部分にわたって延びる、請求項1から15のいずれか一項に記載の方法。 16. Any one of claims 1 to 15, wherein the representation of the field of view of the one or more cameras extends over a portion of the camera user interface including the first control affordance and/or the second control affordance. The method described in . 前記第1のコントロールアフォーダンスを表示したことに応じて、
前記第1のコントロールアフォーダンスが第1のタイプのものであるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの第2の特性がアクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが前記第1のタイプとは異なる第2のタイプのものであるとの判定、及び前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの前記第2の特性が非アクティブ状態にあるとの判定に従って、前記第1のコントロールアフォーダンスに関連付けられた前記第2のインジケーションの表示をやめることと、
を更に含む、請求項1から16のいずれか一項に記載の方法。
In response to displaying the first control affordance,
displaying a second indication associated with the first control affordance in accordance with determining that the first control affordance is of a first type;
determining that the first control affordance is of a second type different from the first type, and a second characteristic of the electronic device associated with the first control affordance is active displaying the second indication associated with the first control affordance in accordance with the determination;
determining that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control affordance is inactive Ceasing display of the second indication associated with the first control affordance in accordance with determining that a condition exists;
17. The method of any one of claims 1-16, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項1から17のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more A non-transitory computer readable storage medium comprising instructions for performing the method of any one of claims 1 to 17. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、請求項1から17のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
and a memory storing one or more programs configured to be executed by said one or more processors, said one or more programs being a program according to any one of claims 1 to 17. An electronic device containing instructions for performing a method.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項1から17のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 1 to 17;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance in accordance with determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示し、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出し、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
display the camera user interface, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; displaying the camera user interface without displaying a second control affordance associated with a condition;
detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance upon determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
第1の既定の条件及び第2の既定の条件が満たされていない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
条件の前記変化を検出したことに応じて、
前記第1の既定の条件が満たされているとの判定に従って、前記第1のコントロールアフォーダンスを表示し、
前記第2の既定の条件が満たされているとの判定に従って、前記第2のコントロールアフォーダンスを表示する、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control area including multiple control affordances;
means, including
without displaying a first control affordance associated with the first predefined condition and the second predefined condition while the first predefined condition and the second predefined condition are not met; means for displaying the camera user interface without displaying a second control affordance associated with a condition;
means for detecting a change in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance;
In response to detecting said change in conditions,
displaying the first control affordance upon determining that the first predetermined condition is met;
displaying the second control affordance in accordance with determining that the second predetermined condition is met;
means and
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正することであって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、ことと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
including
detecting a first gesture on the camera user interface while displaying the camera user interface;
modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
including
A method, including
前記カメラコントロール領域は、前記複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャは、前記複数のカメラ設定アフォーダンスを表示する前記アフォーダンスの選択である、請求項24に記載の方法。 25. The camera control region of claim 24, wherein the camera control region includes affordances displaying the plurality of camera setting affordances, and wherein the gesture of the second type is selection of the affordances displaying the plurality of camera setting affordances. the method of. 前記第2のタイプの前記ジェスチャは、前記カメラディスプレイ領域内の接触の移動である、請求項24に記載の方法。 25. The method of claim 24, wherein the gesture of the second type is movement of contact within the camera display area. 前記第1のタイプの前記ジェスチャは、前記複数のカメラモードアフォーダンスのうちの少なくとも1つ上の接触の移動である、請求項24から26のいずれか一項に記載の方法。 27. The method of any one of claims 24-26, wherein the gesture of the first type is movement of contact over at least one of the plurality of camera mode affordances. 以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上の第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応じて、前記以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、請求項24から27のいずれか一項に記載の方法。
detecting a second gesture on the camera user interface corresponding to a request to display a first representation of previously captured media;
displaying a first representation of the previously captured media in response to detecting the second gesture;
28. The method of any one of claims 24-27, further comprising:
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応じて、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、請求項24から28のいずれか一項に記載の方法。
detecting capture of a first media using the one or more cameras while not displaying a representation of previously captured media;
In response to detecting the capture of the first media,
displaying one or more representations of captured media, including representations of the first media;
29. The method of any one of claims 24-28, further comprising:
前記複数のカメラ設定アフォーダンスは、表示されると、メディアをキャプチャする第1の要求に応じて、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、請求項24から29のいずれか一項に記載の方法。 the plurality of camera setting affordances includes affordances that, when displayed, configure the electronic device to capture media displayed at a first aspect ratio in response to a first request to capture media; 30. The method of any one of claims 24-29. 表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応じて、前記第1のアスペクト比を有する前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現に変更する前記要求を受信したことに応じて、前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、請求項30に記載の方法。
receiving a third request to capture media while the electronic device is configured to capture media that, when displayed, is displayed in the first aspect ratio;
responsive to receiving the third request to capture media, displaying a representation of the captured media having the first aspect ratio;
receiving a request to change the representation of the captured media having the first aspect ratio to a representation of the captured media having a second aspect ratio;
in response to receiving the request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio; displaying the representation of the captured media having an aspect ratio;
31. The method of claim 30, further comprising:
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現は、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、請求項31に記載の方法。 32. The method of claim 31, wherein the representation of the captured media having the second aspect ratio includes visual content not present in the representation of the captured media having the first aspect ratio. . 前記1つ以上のカメラの前記視野の前記表現は、第1のズームレベルで表示され、前記方法は、
前記第1のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応じて、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを上げる要求に対応するとの判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が前記表現の前記ズームレベルを下げる要求に対応するとの判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、を更に含む、請求項24から32のいずれか一項に記載の方法。
the representation of the field of view of the one or more cameras is displayed at a first zoom level, the method comprising:
While displaying the representation of the field of view of the one or more cameras displayed at the first zoom level, receiving a first request to change the zoom level of the representation;
in response to receiving the first request to change the zoom level of the representation;
increasing a second representation field of view of the one or more cameras to be greater than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to a request to increase the zoom level of the representation; displaying at a second zoom level;
setting a third representation field of view of the one or more cameras to be smaller than the first zoom level in accordance with determining that the request to change the zoom level of the representation corresponds to a request to decrease the zoom level of the representation; 33. The method of any one of claims 24-32, further comprising displaying at a third zoom level.
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応じて、
前記第4のズームレベルが前記第2のズームレベルであるとの判定に従って、前記第3のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが前記第3のズームレベルであるとの判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが前記第1のズームレベルであるとの判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、請求項33に記載の方法。
receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at a fourth zoom level;
in response to receiving the second request to change the zoom level of the representation;
displaying a fourth representation of the field of view of the one or more cameras at the third zoom level in accordance with determining that the fourth zoom level is the second zoom level;
displaying a fifth representation of the field of view of the one or more cameras at the first zoom level in accordance with determining that the fourth zoom level is the third zoom level;
displaying a sixth representation of the field of view of the one or more cameras at the second zoom level in accordance with determining that the fourth zoom level is the first zoom level;
34. The method of claim 33, further comprising:
前記カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャは、前記グラフィカルインジケーションの選択に対応する、請求項24から34のいずれか一項に記載の方法。
displaying the camera user interface includes displaying affordances including graphical indications of states of capture settings;
35. A method according to any one of claims 24 to 34, wherein said gesture of said second type corresponds to selecting said graphical indication.
前記第1の位置に前記複数のカメラ設定アフォーダンスを表示することは、
前記第2のタイプの前記ジェスチャが検出されていた間に、第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出されていた間に、前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1の位置に前記第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、請求項24から35のいずれか一項に記載の方法。
Displaying the plurality of camera setting affordances at the first location includes:
Following a determination that the electronic device is configured to capture media in a first camera mode while the gesture of the second type was detected, a first displaying a set of camera setting affordances;
following determining that the electronic device is configured to capture media in a second camera mode different from the first camera mode while the gesture of the second type was detected; displaying a second set of camera setting affordances at the first location that is different from the first set of camera setting affordances;
36. The method of any one of claims 24-35, comprising
前記第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスは、前記第1のカメラ設定アフォーダンスを含む、請求項36に記載の方法。 37. The method of claim 36, wherein the first set of camera setting affordances comprises a first camera setting affordance and the second set of camera setting affordances comprises the first camera setting affordance. . 第1のカメラモードは、静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスは、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、請求項36又は37に記載の方法。
The first camera mode is a still photo capture mode, and the first set of camera setting affordances are:
affordances including visual indications corresponding to flash settings;
Affordances, including visual indications corresponding to live settings;
affordances that include visual indications corresponding to aspect ratio settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
第1のカメラモードは、ポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスは、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、
からなる群から選択される1つ以上のアフォーダンスを含む、請求項36又は37に記載の方法。
The first camera mode is portrait mode, and the first set of camera setting affordances comprises:
affordances, including visual indications corresponding to depth control settings;
affordances including visual indications corresponding to flash settings;
affordances including visual indications corresponding to timer settings;
affordances including visual indications corresponding to filter settings; and
affordances, including visual indications corresponding to lighting settings;
38. The method of claim 36 or 37, comprising one or more affordances selected from the group consisting of:
前記第1のジェスチャは、前記第1のタイプのものであり、前記第1のジェスチャを検出することは、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法は、
前記第1のジェスチャの前記第1の部分を検出したことに応じて、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を囲む別個の1つ以上の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応じて、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って、前記境界部の少なくとも一部分が前記ディスプレイから外れて平行移動され、表示されることを停止されるまで、平行移動させることと、
を更に含む、請求項24から39のいずれか一項に記載の方法。
The first gesture is of the first type, and detecting the first gesture includes determining a first portion of the first gesture and a second portion of the first gesture. detecting, the method comprising:
separate one or more boundaries surrounding at least a portion of the representation of the field of view of the one or more cameras via the display device in response to detecting the first portion of the first gesture; displaying a boundary containing the sub-element;
responsive to detecting the second portion of the first gesture, moving the boundary in a first direction across a display of the display device such that at least a portion of the boundary is parallel off the display; translating until it is moved and stopped being displayed;
40. The method of any one of claims 24-39, further comprising:
前記第1のジェスチャの前記第2の部分を検出することは、前記第1の方向に動く第2の接触を検出することを含む、請求項40に記載の方法。 41. The method of claim 40, wherein detecting the second portion of the first gesture includes detecting a second contact that moves in the first direction. 前記第2の接触は、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させることが行われる速度は、前記第1の方向の前記第2の接触の移動速度に比例する、請求項41に記載の方法。
the second contact is detected on the representation of the field of view of the one or more cameras;
42. The method of claim 41, wherein the speed at which translating the boundary occurs is proportional to the speed of movement of the second contact in the first direction.
前記境界部を平行移動させることは、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、請求項41に記載の方法。 42. The method of claim 41, wherein translating the boundary comprises changing the visual appearance of the at least part of the representation of the field of view of the one or more cameras surrounded by the boundary. . 第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
メディアをキャプチャする前記第2の要求を受信したことに応じて、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、請求項24から43のいずれか一項に記載の方法。
detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode;
responsive to receiving the second request to capture media, based on a setting corresponding to the third camera mode and at least one setting corresponding to affordances of the plurality of camera setting affordances; capturing media using any of the above cameras;
44. The method of any one of claims 24-43, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項24から44のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 45. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 24-44. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項24から44のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 24-44.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項24から44のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 24 to 44;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含むカメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出し、
前記第1のジェスチャを検出したことに応じて、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、前記カメラコントロール領域の外観を修正する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
display the camera user interface, including
detecting a first gesture on the camera user interface while displaying the camera user interface;
In response to detecting the first gesture,
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
modifying the appearance of the camera control area, comprising
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上の第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応じて、前記カメラコントロール領域の外観を修正する手段であって、
前記第1のジェスチャが第1のタイプのジェスチャであるとの判定に従って、前記第1の位置に1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記第1のジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるとの判定に従って、前記複数のカメラモードアフォーダンスを表示することを停止し、前記第1の位置に複数のカメラ設定アフォーダンスを表示することであって、前記カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する設定である、ことと、
を含む、手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a plurality of camera mode affordances at a first location;
means, including
means for detecting a first gesture on the camera user interface while displaying the camera user interface;
means for modifying the appearance of the camera control area in response to detecting the first gesture, comprising:
displaying one or more additional camera mode affordances at the first location in accordance with determining that the first gesture is a first type gesture;
stopping displaying the plurality of camera mode affordances according to determining that the first gesture is a gesture of a second type different from the first type; and a plurality of cameras at the first position. displaying a setting affordance, the camera setting affordance being a setting that adjusts image capture for a currently selected camera mode;
means, including
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、ことと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras;
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A method, including
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応じて、前記視覚コンテンツの第2の表現を表示することであって、前記視覚コンテンツの前記第2の表現は、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、を含む、ことと、
を更に含む、請求項51に記載の方法。
detecting, while displaying the first representation of the visual content, a set of one or more inputs corresponding to a request to modify the representation of the visual content;
displaying a second representation of the visual content in response to detecting the set of one or more inputs, the second representation of the visual content being controlled by the one or more cameras; and visual content from at least a portion of the first portion of the field of view of the one or more cameras that was not included in the first representation of the visual content from the second portion of the field of view of the one or more cameras visual content based at least in part on the visual content;
52. The method of claim 51, further comprising:
前記視覚コンテンツの前記第1の表現は、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、請求項52に記載の方法。
the first representation of the visual content is from a first visual perspective;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of claim 52, wherein the representation from a second visual point of view, different from the first visual point of view, generated based on .
前記視覚コンテンツの前記第1の表現は、第1の向きの表現であり、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きの表現である、請求項52に記載の方法。
the first representation of the visual content is a representation in a first orientation;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. 53. The method of claim 52, wherein the representation of a second orientation different from the first orientation is generated based on .
前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記視覚コンテンツの前記第1の表現は、第1のズームレベルの表現であることと、
前記視覚コンテンツの前記第2の表現は、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現であることと、
を更に含む、請求項52に記載の方法。
The first representation is displayed at a first zoom level, the method comprising:
the first representation of the visual content is a representation at a first zoom level;
The second representation of the visual content is the at least portion of the visual content from the second portion of the field of view of the one or more cameras that was not included in the first representation of the visual content. a representation of a second zoom level, different from the first zoom level, generated based on
53. The method of claim 52, further comprising:
更に、前記視覚コンテンツの前記第1の表現は、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、請求項51から55のいずれか一項に記載の方法。 Further, the first representation of the visual content uses at least a second portion of the visual content from the second portion of the field of view of the one or more cameras for digital image stabilization operations. 56. The method of any one of claims 51-55, generated based at least in part. 前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を実行すること、
を更に含む、請求項51から56のいずれか一項に記載の方法。
performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras after capturing the media item;
57. The method of any one of claims 51-56, further comprising:
前記メディアアイテムを表示する前記要求は、前記メディアアイテムを表示する第1の要求であり、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、
を更に含む、請求項51から57のいずれか一項に記載の方法。
The request to display the media item is a first request to display the media item, the method comprising:
corresponding to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; receiving a second request to display the media item after displaying the first representation of the visual content to;
the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and the one in response to receiving the second request to display the media item; displaying the representation of the visual content corresponding to the second portion of the field of view of the camera;
58. The method of any one of claims 51-57, further comprising:
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされているとの判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースは、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、こと、
を更に含む、請求項51から58のいずれか一項に記載の方法。
displaying, via the display device, a second camera user interface in response to receiving the request to display the camera user interface and in accordance with determining that respective criteria are met. and the second camera user interface renders the first portion of the field of view of the one or more cameras without including the representation of the second portion of the field of view of the one or more cameras. including said expression;
59. The method of any one of claims 51-58, further comprising:
前記方法は、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応じて、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたとの判定に従って、追加のコンテンツのインジケーションの表示をやめることと、
を更に含む、請求項59に記載の方法。
The method includes
receiving a request to display a previously captured media item;
in response to receiving said request to display said previously captured media item;
displaying an indication of additional content in accordance with determining that the previously captured media item was captured when the respective criteria were not met;
Ceasing display of additional content indications in accordance with determining that the previously captured media item has been captured when the respective criteria are met;
60. The method of claim 59, further comprising:
前記それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、請求項59又は60に記載の方法。 61. A method according to claim 59 or 60, wherein said respective criteria comprise criteria met when said electronic device is configured to capture media items at a resolution of 4000 horizontal pixels or greater. 前記それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されているときに満たされる基準を含む、請求項59から61のいずれか一項に記載の方法。 62. The method of any one of claims 59 to 61, wherein the respective criteria include criteria met when the electronic device is configured to operate in portrait mode at a predetermined zoom level. . 前記それぞれの基準は、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないときに満たされる基準を含む、請求項59から62のいずれか一項に記載の方法。 63. The method of any one of claims 59 to 62, wherein said respective criteria include criteria met when at least one camera of said one or more cameras fails to maintain focus for a predetermined period of time. . 前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力は、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法は、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応じて、
追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャし、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないとの判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、
を更に含む、請求項51から63のいずれか一項に記載の方法。
said input corresponding to said request to capture media with said one or more cameras is a first input corresponding to said request to capture media with said one or more cameras;
The method includes
detecting a second input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
in response to detecting the second input corresponding to the request to capture media with the one or more cameras;
following determining that the electronic device is configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on additional content settings;
capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras; and capturing the first representation of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the representation of at least the portion of visual content;
following determining that the electronic device is not configured to capture visual content corresponding to the second portion of the field of view of the one or more cameras based on the additional content settings;
into the first portion of the field of view of the one or more cameras without capturing the representation of at least the portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. capturing the first representation of the corresponding visual content;
64. The method of any one of claims 51-63, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項51から64のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 65. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 51-64. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項51から64のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 51-64.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項51から64のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 51 to 64;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む前記カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出し、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャし、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信し、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
Via the display device, the camera user interface,
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
displaying the camera user interface including
detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and
receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、かつそれぞれの基準が満たされていないとの判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分は、前記第1の部分と視覚的に区別される、第2の領域と、
を含む、手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力を検出したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
in response to receiving the request to display the camera user interface and following a determination that respective criteria are not met;
means for displaying the camera user interface via the display device, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the one or more cameras;
A second region containing a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is the first portion and the field of view. a second region that is distinct from
means, including
means for detecting input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed;
visual content corresponding to the first portion of the field of view of the one or more cameras in response to detecting the input corresponding to the request to capture media with the one or more cameras; visual content corresponding to the second portion of the field of view of one or more cameras; and means for capturing a media item with the one or more cameras;
means for receiving a request to display the media item after capturing the media item;
responsive to receiving the request to display the media item without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras; means for displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras;
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; and displaying
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; ceasing to display the first portion;
A method, including
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持すること、
を含む、請求項71に記載の方法。
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
maintaining a display of at least a second portion of the representation of the captured media;
72. The method of claim 71, comprising:
前記表現の前記第1の部分を表示することを停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の位置に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止することは、
前記表示デバイス上の前記第1の位置から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の位置に向かって前記キャプチャされたメディアの前記表現を動かすアニメーションを表示すること、
を含む、請求項71又は72に記載の方法。
displaying the representation of the captured media at a first location on the display device prior to ceasing to display the first portion of the representation;
Stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface
displaying an animation that moves the representation of the captured media from the first position on the display device toward a second position on the display device corresponding to an edge of the display device;
73. The method of claim 71 or 72, comprising
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第3の位置に表示され、前記方法は、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分を表示することを停止することと、
を含む、請求項71から73のいずれか一項に記載の方法。
the representation of the captured media is displayed at a third location on the display device, the method comprising:
Stop displaying at least a portion of the second representation of the captured media while maintaining display of the camera user interface while the second representation of the captured media is being displayed. detecting user input corresponding to a request to
at least the second representation of the captured media while maintaining display of the camera user interface in response to detecting the request to stop displaying at least a portion of the second representation; ceasing to display the portion;
74. The method of any one of claims 71-73, comprising
前記表現の前記第1の部分を表示することを停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の位置から、前記表示デバイス上の前記第4の位置とは異なる第5の位置への接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の位置から、前記表示デバイス上の前記第5の位置への前記接触の移動に対応するユーザ入力を受信したことに応じて、前記表現の前記第1の部分を再表示することと、
を更に含む、請求項71から74のいずれか一項に記載の方法。
from a fourth position on the display device corresponding to an edge of the display device, after stopping displaying the first portion of the representation, different from the fourth position on the display device; receiving user input corresponding to movement of the contact to the fifth position;
in response to receiving user input corresponding to movement of the contact from the fourth position on the display device corresponding to the edge of the display device to the fifth position on the display device. , redisplaying the first portion of the representation;
75. The method of any one of claims 71-74, further comprising:
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応じて、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、請求項71から75のいずれか一項に記載の方法。
detecting user input corresponding to a request to display an enlarged representation of the captured media while the representation of the captured media is being displayed;
displaying, via the display device, an enlarged representation of the captured media in response to detecting user input corresponding to the selection of the representation of the captured media;
76. The method of any one of claims 71-75, further comprising:
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応じて、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、請求項71から76のいずれか一項に記載の方法。
receiving a request to redisplay the camera user interface while the camera user interface is not being displayed;
displaying a second instance of the camera user interface including a second representation of captured media in response to receiving the request to redisplay the camera user interface;
77. The method of any one of claims 71-76, further comprising:
前記キャプチャされたメディアの前記表現は、前記表示デバイス上の第5の位置に表示され、前記方法は、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分を表示することを停止した後に、前記第5の位置に複数のカメラ設定を制御するアフォーダンスを表示すること、
を更に含む、請求項71から77のいずれか一項に記載の方法。
the representation of the captured media is displayed at a fifth location on the display device, the method comprising:
Controlling a plurality of camera settings to the fifth position after stopping displaying at least the first portion of the representation of the captured media while maintaining display of the camera user interface. to display affordances to
78. The method of any one of claims 71-77, further comprising:
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることは、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することは、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、請求項71から78のいずれか一項に記載の方法。
capturing media corresponding to the field of view of the one or more cameras includes capturing a sequence of images;
79. Any one of Claims 71 to 78, wherein displaying the representation of the captured media comprises playing at least a portion of the captured sequence of images comprising at least two images. Method.
前記所定の期間は、画像の前記キャプチャされたシーケンスの持続時間に基づく、請求項79に記載の方法。 80. The method of Claim 79, wherein the predetermined period of time is based on the duration of the captured sequence of images. 前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するためのオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャされたメディアを共有するためのオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応じて、前記キャプチャされたメディアを共有するためのユーザインタフェースを表示することと、
を更に含む、請求項71から80のいずれか一項に記載の方法。
Receiving user input corresponding to a request to display options for sharing the captured media while displaying the representation of the captured media;
displaying a user interface for sharing the captured media in response to receiving the user input corresponding to the request to display options for sharing the captured media;
81. The method of any one of claims 71-80, further comprising:
前記キャプチャされたメディアを共有するための前記ユーザインタフェースは、前記キャプチャされたメディアを共有するための複数のオプションを含む、請求項81に記載の方法。 82. The method of Claim 81, wherein the user interface for sharing the captured media includes multiple options for sharing the captured media. 表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項71から82のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 83. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 71-82. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項71から82のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 71-82.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項71から82のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 71 to 82;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出し、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示し、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出し、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; to display
detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; stop displaying the first portion;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャし、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応じて、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分を表示することを停止する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via said display device, said camera user interface including a camera display area containing a representation of the field of view of said one or more cameras;
means for detecting, while displaying the camera user interface, a request to capture media corresponding to the field of view of the one or more cameras;
capturing media corresponding to the field of view of the one or more cameras and rendering the captured media in response to detecting the request to capture media corresponding to the field of view of the one or more cameras; means for displaying a
means for detecting, while displaying the representation of the captured media, that the representation of the captured media has been displayed for a predetermined period of time;
at least the representation of the captured media while maintaining display of the camera user interface in response to detecting that the representation of the captured media has been displayed for the predetermined period of time; means for stopping displaying the first portion;
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、ことと、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、ことと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to determining that a set of aspect ratio change criteria are met. By constructing
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when said first input includes maintaining said first contact at a position and subsequently detecting movement of said first contact to a second position different from said first position; and
A method, including
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、第1の触知出力を提供すること、
を更に含む、請求項89に記載の方法。
In response to detecting at least a first portion of the first input,
Providing a first tactile output in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. ,
90. The method of claim 89, further comprising:
前記第1の入力の少なくとも第2の部分を検出したことに応じて、
前記第1の入力の第2の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、メディアをキャプチャする要求に応じてキャプチャされる前記メディアの前記境界部の視覚インジケーションを表示すること、を更に含む、請求項89又は90に記載の方法。
In response to detecting at least a second portion of the first input,
Captured in response to a request to capture media in accordance with determining that a second portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time. 91. A method according to claim 89 or 90, further comprising displaying a visual indication of said boundary of said media.
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第3の部分を検出したことに応じて、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むとの判定に従って、前記第1の接触が前記閾値時間量にわたって前記第1の位置で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの外観を修正すること、
を更に含む、請求項91に記載の方法。
while the visual indication is being displayed and in response to detecting at least a third portion of the first input;
After the first contact has been maintained at the first position for the threshold amount of time, following a determination that the third portion of the first input includes movement of the first contact, said movement of one contact having a first magnitude and a first direction, and modifying the appearance of said visual indication based on said first magnitude and said first direction;
92. The method of claim 91, further comprising:
前記第1の入力の少なくとも第1の部分を検出したことに応じて、
前記第1の入力の前記第1の部分が少なくとも前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示すること、
を更に含む、請求項91又は92に記載の方法。
In response to detecting at least a first portion of the first input,
the one indicated by the visual indication in accordance with determining that the first portion of the first input includes maintaining the first contact at the first location for at least the threshold amount of time; displaying an animation comprising reducing the size of a portion of said representation of said field of view of said camera;
93. The method of claim 91 or 92, further comprising
前記視覚インジケーションが表示されている間に、かつ前記第1の入力の少なくとも第4の部分を検出したことに応じて、
前記第1の入力の前記第4の部分が前記第1の接触のリフトオフを含むとの判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示すること、
を更に含む、請求項91から93のいずれか一項に記載の方法。
while the visual indication is being displayed and in response to detecting at least a fourth portion of the first input;
size a portion of the representation of the field of view of the one or more cameras indicated by the visual indication in accordance with determining that the fourth portion of the first input includes liftoff of the first contact; displaying an animation including growing;
94. The method of any one of claims 91-93, further comprising
前記1つ以上のカメラの前記視野の前記表現の第1の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分は、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されず、
前記第2の部分は、前記第1の部分と視覚的に区別される、請求項91から94のいずれか一項に記載の方法。
A first portion of the representation of the field of view of the one or more cameras is indicated as selected by the visual indication of the boundary of the media; a second portion of the representation is not indicated as selected by the visual indication of the boundary of the media;
95. The method of any one of claims 91-94, wherein the second portion is visually distinct from the first portion.
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲内にない移動の第2の大きさ及び/又は方向を有する前記第2の位置への前記第1の接触の前記移動に従って、所定ではなく、かつ移動の前記第2の大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、請求項90から95のいずれか一項に記載の方法。
Configuring the electronic device to capture media in a second aspect ratio includes:
to capture media at a predetermined aspect ratio according to said movement of said first contact to said second position having a first magnitude and/or direction of movement within a first range of movement; configuring an electronic device;
according to said movement of said first contact to said second position having a second magnitude and/or direction of movement not within said first range of movement; configuring the electronic device to capture media in an aspect ratio based on size and/or orientation;
96. The method of any one of claims 90-95, comprising
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することは、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、請求項96に記載の方法。 97. The method of claim 96, wherein configuring the electronic device to capture media at the predetermined aspect ratio comprises generating a second tactile output via one or more tactile output devices. described method. 前記第1の入力を検出する前に、前記電子デバイスは、第1のカメラモードを使用してメディアをキャプチャするように構成されており、前記方法は、
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量にわたって前記第1の位置で前記第1の接触を維持することを含まないとの判定、及び前記第1の入力が第1の移動閾値を上回る前記第1の接触の移動を含むとの判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、請求項89から97のいずれか一項に記載の方法。
Prior to detecting the first input, the electronic device is configured to capture media using a first camera mode, the method comprising:
In response to detecting the first input,
determining that the first input does not include maintaining the first contact at the first position for the threshold amount of time; and the first input exceeding a first movement threshold. configuring the electronic device to capture media using a second camera mode different from the first camera mode, according to the determination that
98. The method of any one of claims 89-97, further comprising
前記カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法は、
前記カメラディスプレイ領域上の第2の方向の第4の接触の連続的な移動を検出することを含む、第4の入力を検出することに従って、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示すること、
を更に含む、請求項89から98のいずれか一項に記載の方法。
The camera user interface further includes an indication that the electronic device is configured to operate in a first media capture mode, the method comprising:
according to detecting a fourth input comprising detecting continuous movement of a fourth contact in a second direction over the camera display area;
displaying controls for adjusting characteristics associated with media capture behavior;
99. The method of any one of claims 89-98, further comprising
前記第1の入力を検出したことに応じて、
前記第1の入力が前記閾値時間量未満にわたって前記第1の位置で前記第1の接触を検出することを含むとの判定に従って、前記第1の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整すること、
を更に含む、請求項89から99のいずれか一項に記載の方法。
In response to detecting the first input,
of the one or more cameras corresponding to the first location, according to determining that the first input includes detecting the first contact at the first location for less than the threshold amount of time. adjusting focus settings, including configuring the electronic device to capture media with content-based focus settings at positions within a field of view;
100. The method of any one of claims 89-99, further comprising
前記第1の入力を検出したことに応じて、
前記第1の入力が、メディアをキャプチャする前記要求に応じてキャプチャされる前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の位置で第2の閾値時間量にわたって前記第1の接触を維持することを含むとの判定に従って、前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、請求項89から100のいずれか一項に記載の方法。
In response to detecting the first input,
a second input at a third location not corresponding to a predetermined portion of the camera display area, the first input indicating at least the portion of the boundary of the media to be captured in response to the request to capture media; a content-based first exposure at a location within the field of view of the one or more cameras corresponding to the third location, according to a determination comprising maintaining the first contact for a threshold amount of time of configuring the electronic device to capture media in settings;
101. The method of any one of claims 89-100, further comprising:
前記第3の位置に対応する前記1つ以上のカメラの前記視野内の位置でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成した後に、前記第3の位置に対応する前記1つ以上のカメラの視野内の前記位置での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させない、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応じて、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、請求項101に記載の方法。
after configuring the electronic device to capture media with the first exposure setting based on content at a location within the field of view of the one or more cameras corresponding to the third location; of the representation of the field of view of the one or more cameras causing the content at the position within the field of view of the one or more cameras corresponding to the position to no longer be within the field of view of the one or more cameras. detecting a change; and
continuing to configure the electronic device to capture media at the first exposure setting in response to detecting the change;
102. The method of claim 101, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項89から102のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 103. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 89-102. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項89から102のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 89-102.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項89から102のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 89 to 102;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; A non-transitory computer-readable storage medium that contains criteria for
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示し、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出し、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する、命令を含み、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a camera user interface, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. detecting a first input including a first touch at each location;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. comprising instructions, comprising
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; Electronic devices, including standards that are
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、手段と、
メディアをキャプチャする要求を受信したことに応じて、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの位置での第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応じて、
1組のアスペクト比変化基準が満たされているとの判定に従って、メディアをキャプチャする要求に応じて、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応じてキャプチャされる前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の位置で前記第1の接触を維持し、続いて、前記第1の位置とは異なる第2の位置への前記第1の接触の移動を検出することを前記第1の入力が含むときに満たされる基準を含む、手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device, the camera user interface including a camera display area containing a representation of the field of view of the one or more cameras;
on the representation of the field of view of the one or more cameras while the electronic device is configured to capture media at a first aspect ratio in response to receiving a request to capture media. means for detecting a first input including a first touch at each position;
In response to detecting the first input,
The electronic device to capture media at a second aspect ratio different from the first aspect ratio in response to a request to capture media according to a determination that a set of aspect ratio change criteria are met. a means for configuring
A first set of aspect ratio change criteria corresponding to a predetermined portion of the camera display area indicative of at least a portion of a boundary of the media captured in response to a request to capture media for at least a threshold amount of time. satisfied when the first input includes maintaining the first contact at a position and subsequently detecting movement of the first contact to a second position different from the first position; means, including criteria for
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む、方法。
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation at a second zoom level different from the first zoom level, automatically, without user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media.
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応じて、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたとの判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、請求項109に記載の方法。
displaying a media capture affordance; and
detecting a first input corresponding to the media capture affordance;
In response to detecting the first input,
capturing media at the first zoom level in accordance with determining that the first input was detected while the first camera user interface was displayed;
capturing media at the second zoom level in accordance with determining that the first input was detected while the second camera user interface was displayed;
110. The method of claim 109, further comprising:
前記第1のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの視野の第1の表現を表示することを含み、
前記第1の表現は、前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の第2の表現を表示することを含み、
前記第2の表現は、前記第2のズームレベルで前記第2のカメラの向きで表示される、請求項109又は110に記載の方法。
displaying the first camera user interface includes displaying a first representation of the field of view of the one or more cameras;
the first representation is displayed in the first camera orientation at the first zoom level;
displaying the second camera user interface includes displaying a second representation of the field of view of the one or more cameras;
111. A method according to claim 109 or 110, wherein said second representation is displayed with said second camera orientation at said second zoom level.
前記第1の向きは、縦向きであり、前記第1の表現は、前記1つ以上のカメラの前記視野の一部分であり、前記第2の向きは、横向きであり、前記第2の表現は、前記1つ以上のカメラの視野全体である、請求項111に記載の方法。 The first orientation is portrait, the first representation is a portion of the field of view of the one or more cameras, the second orientation is landscape, the second representation is , the entire field of view of the one or more cameras. 前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第3の表現に置き換えることであって、前記第3の表現は、前記第1のカメラの向きであり、かつ前記第3のズームレベルである、ことと、
を更に含む、請求項111又は112に記載の方法。
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
displaying the first representation to a third representation of the field of view of the one or more cameras in response to receiving the request to change the first zoom level to the third zoom level. transposing, wherein the third representation is the orientation of the first camera and the third zoom level;
113. The method of claim 111 or 112, further comprising:
前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択は、前記第1のズームレベルを第4のズームレベルに変更する要求に対する、ことと、
前記第2の入力を検出したことに応じて、前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第4の表現に置き換えることであって、前記第4の表現は、前記第1のカメラの向きであり、かつ前記第4のズームレベルである、ことと、
を更に含む、請求項111から113のいずれか一項に記載の方法。
displaying a zoom toggle affordance while displaying the first representation of the field of view of the one or more cameras;
detecting a second input corresponding to the selection of the zoom toggle affordance, the selection of the zoom toggle affordance being for a request to change the first zoom level to a fourth zoom level;
replacing the display of the first representation with a fourth representation of the field of view of the one or more cameras in response to detecting the second input, the fourth representation comprising: the orientation of the first camera and the fourth zoom level;
114. The method of any one of claims 111-113, further comprising:
前記ズームトグルアフォーダンスは、前記第1のカメラユーザインタフェース及び前記第2のカメラユーザインタフェース内に表示される、請求項114に記載の方法。 115. The method of Claim 114, wherein the zoom toggle affordance is displayed within the first camera user interface and the second camera user interface. 前記1つ以上のカメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第5の表現に置き換えることであって、前記第5の表現は、前記第1のカメラの向きで、かつ前記第3のズームレベルである、ことと、
を更に含む、請求項111から115のいずれか一項に記載の方法。
receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the one or more cameras;
in response to receiving the request to change the first zoom level to the third zoom level;
replacing the display of the first representation with a fifth representation of the field of view of the one or more cameras, the fifth representation being in the orientation of the first camera and the third representation is the zoom level of
116. The method of any one of claims 111-115, further comprising:
前記1つ以上のカメラは、第1のカメラと、前記第1のカメラとは別個の第2のカメラとを含み、
前記1組の自動ズーム基準は、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないときに満たされる基準を含む、請求項109から116のいずれか一項に記載の方法。
the one or more cameras include a first camera and a second camera separate from the first camera;
The set of auto-zoom criteria includes: the electronic device displaying in the first camera user interface a representation of the field of view of the first camera; and a representation of the field of view of the second camera. 117. A method according to any one of claims 109 to 116, comprising a criterion met when not displaying the .
前記1組の自動ズーム基準は、前記電子デバイスがビデオキャプチャ動作モードにないときに満たされる基準を含む、請求項109から117のいずれか一項に記載の方法。 118. The method of any one of claims 109-117, wherein the set of auto-zoom criteria includes criteria met when the electronic device is not in a video capture mode of operation. 前記1組の自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、請求項109から118のいずれか一項に記載の方法。 119. The method of any one of claims 109-118, wherein the set of auto-zoom criteria includes criteria met when the electronic device is configured to capture video of a live communication session. 前記第1のズームレベルは、前記第2のズームレベルよりも高く、前記方法は、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応じて、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、
を更に含む、請求項109から119のいずれか一項に記載の方法。
The first zoom level is higher than the second zoom level, the method comprising:
detecting a change in orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface;
displaying the first camera user interface on the display device in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation;
120. The method of any one of claims 109-119, further comprising
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項109から120のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 121. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 109-120. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項109から120のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
121. An electronic device, wherein said one or more programs comprise instructions for performing the method of any one of claims 109-120.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項109から120のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 109 to 120;
An electronic device comprising:
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and a camera, the one or more programs comprising:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation at a second zoom level different from the first zoom level, automatically, without user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出し、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation at a second zoom level different from the first zoom level, automatically, without user input, according to a determination that a set of auto-zoom criteria are met; displaying a second camera user interface that captures media;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応じて、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているとの判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a first camera user interface that captures media in a first camera orientation at a first zoom level while the electronic device is in the first orientation;
means for detecting a change in orientation of the electronic device from the first orientation to a second orientation;
in response to detecting the change in orientation of the electronic device from the first orientation to the second orientation;
at a second camera orientation at a second zoom level different from the first zoom level, automatically, without user input, according to a determination that a set of auto-zoom criteria are met; means for displaying a second camera user interface for capturing media;
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを備える電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
を含む、方法。
a method,
In an electronic device comprising a display device and one or more cameras,
displaying, via the display device, a media capture user interface that includes displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; updating the representation of the field of view of the one or more cameras using
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
A method, including
前記可変フレームレート基準は、前記1つ以上のカメラの前記視野内の周辺光が閾値を下回るときに満たされる基準を含み、前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法は、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ前記可変フレームレート基準が満たされていないとの判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持すること、
を更に含む、請求項127に記載の方法。
The variable frame rate criteria include criteria met when ambient light in the field of view of the one or more cameras is below a threshold, prior to detecting the change in the field of view of the one or more cameras. , wherein the representation of the field of view of the one or more cameras is updated at a third frame rate, the method comprising:
the one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that the variable frame rate criteria are not met; maintaining said updating of said representation of said field of view of
128. The method of claim 127, further comprising:
前記可変フレームレート基準は、フラッシュモードが非アクティブであるときに満たされる基準を含む、請求項128に記載の方法。 129. The method of Claim 128, wherein the variable frame rate criteria include criteria met when flash mode is inactive. 前記メディアキャプチャユーザインタフェースを表示することは、
前記可変フレームレート基準が満たされているとの判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないとの判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、請求項127から129のいずれか一項に記載の方法。
Displaying the media capture user interface includes:
displaying an indication that a variable frame rate mode is active in accordance with determining that the variable frame rate criteria are met;
displaying the media capture user interface without the indication that the variable frame rate mode is active following a determination that the variable frame rate criteria are not met;
130. The method of any one of claims 127-129, comprising
前記第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、第1の輝度で表示され、
前記第1のフレームレートよりも低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて更新される前記1つ以上のカメラの前記視野の前記表現は、前記表示デバイス上に、前記第1の輝度よりも視覚的に明るい第2の輝度で表示される、請求項127から130のいずれか一項に記載の方法。
the representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the first frame rate; displayed with an intensity of 1,
said representation of said field of view of said one or more cameras updated based on said detected change in said field of view of said one or more cameras at said second frame rate lower than said first frame rate. is displayed on the display device at a second luminance that is visually brighter than the first luminance.
前記第2のフレームレートは、それぞれの閾値を下回る前記1つ以上のカメラの前記視野内の周辺光の量に基づく、請求項127から131のいずれか一項に記載の方法。 132. The method of any one of claims 127-131, wherein the second frame rate is based on an amount of ambient light within the field of view of the one or more cameras below a respective threshold. 前記検出された変化は、検出された移動を含み、前記第2のフレームレートは、前記検出された移動の量に基づく、請求項127から132のいずれか一項に記載の方法。 133. The method of any one of claims 127-132, wherein the detected change comprises detected movement, and wherein the second frame rate is based on the amount of the detected movement. 前記移動基準は、前記1つ以上のカメラの前記視野内の前記検出された変化が移動閾値よりも大きい前記電子デバイスの移動に対応するときに満たされる基準を含む、請求項127から133のいずれか一項に記載の方法。 134. Any of claims 127 to 133, wherein the movement criterion comprises a criterion met when the detected change in the field of view of the one or more cameras corresponds to movement of the electronic device greater than a movement threshold. or the method described in paragraph 1. 表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項127から134のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 135. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 127-134. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項127から134のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 127-134.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項127から134のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 127 to 134;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示し、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出し、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. An electronic device comprising instructions for updating the representation of the field of view of the one or more cameras based on the detected change in the field of view.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記1つ以上のカメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応じて、かつ可変フレームレート基準が満たされているとの判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすとの判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新し、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないとの判定に従って、前記第1のフレームレートよりも低い第2のフレームレートで前記1つ以上のカメラの前記視野内の前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface comprising displaying a representation of the field of view of the one or more cameras;
means for detecting, via the one or more cameras, changes in the field of view of the one or more cameras while displaying the media capture user interface;
in response to detecting the change in the field of view of the one or more cameras and in accordance with determining that a variable frame rate criterion is met;
based on the detected change in the field of view of the one or more cameras at a first frame rate, according to determining that the detected change in the field of view of the one or more cameras satisfies a movement criterion; to update the representation of the field of view of the one or more cameras;
of the one or more cameras at a second frame rate that is lower than the first frame rate, according to a determination that the detected change in the field of view of the one or more cameras does not meet the movement criteria. updating the representation of the field of view of the one or more cameras based on the detected changes in the field of view;
means and
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、ことと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
receiving a request to display a camera user interface;
displaying, via the display device, a camera user interface in response to receiving the request to display the camera user interface;
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
including
A method, including
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
を更に含む、請求項141に記載の方法。
obtaining an indication that low light conditions are no longer met while displaying the control for adjusting the capture duration;
Stopping displaying, via the display device, the control for adjusting the capture duration in response to obtaining the indication;
142. The method of claim 141, further comprising:
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応じて、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、請求項141又は142に記載の方法。
Obtaining an indication that low light conditions have been met while displaying the representation of the field of view of the one or more cameras without concurrently displaying the controls for adjusting the capture duration. When,
displaying the control for adjusting the capture duration concurrently with the representation of the field of view of the one or more cameras in response to obtaining the indication;
143. The method of claim 141 or 142, further comprising:
前記低光条件は、フラッシュモードが非アクティブであるときに満たされる条件を含む、請求項141から143のいずれか一項に記載の方法。 144. The method of any one of claims 141-143, wherein the low light conditions comprise conditions met when a flash mode is inactive. 前記キャプチャ持続時間を調整する前記コントロールはスライダである、請求項141から144のいずれか一項に記載の方法。 145. The method of any one of claims 141-144, wherein said control for adjusting said capture duration is a slider. 前記カメラユーザインタフェースを表示することは、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用してメディアの前記キャプチャを開始するメディアキャプチャアフォーダンスを表示すること、
を含む、請求項141から145のいずれか一項に記載の方法。
Displaying the camera user interface includes:
concurrently with the representation of the field of view of the one or more cameras, displaying a media capture affordance that, when selected, initiates the capture of media using the one or more cameras;
146. The method of any one of claims 141-145, comprising
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応じて、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、請求項146に記載の方法。
displaying a first indication of a first capture duration while displaying the controls for adjusting the capture duration;
the first indication of the first capture duration in response to receiving a request to adjust the control that adjusts the capture duration from the first capture duration to a second capture duration; with a display of a second indication of the second capture duration;
147. The method of claim 146, further comprising:
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の表現であり、前記方法は、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応じて、
前記第1の表現の表示を、前記1つ以上のカメラの前記視野の第2の表現に置き換えることであって、前記第2の表現は、前記第2のキャプチャ持続時間に基づき、かつ前記第1の表現と視覚的に区別される、こと、
を更に含む、請求項147に記載の方法。
the representation of the field of view of the one or more cameras is a first representation of the field of view of the one or more cameras, the method comprising:
in response to receiving the request to adjust the control that adjusts the capture duration from the first capture duration to the second capture duration;
replacing a display of the first representation with a second representation of the field of view of the one or more cameras, the second representation being based on the second capture duration and be visually distinct from the representation of 1;
148. The method of claim 147, further comprising:
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間に対応するとの判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、請求項147又は148に記載の方法。
receiving a request to capture media while displaying the second indication of the second capture duration;
the second capture duration in response to receiving the request to capture media and in accordance with a determination that the second capture duration corresponds to a predetermined capture duration that deactivates a low light capture mode; initiating media capture via the one or more cameras based on a duration different than time;
149. The method of claim 147 or 148, further comprising:
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、請求項147又は148に記載の方法。
receiving a request to capture media while displaying the second indication of the second capture duration;
initiating media capture via the one or more cameras based on the second capture duration in response to receiving the request to capture media;
149. The method of claim 147 or 148, further comprising:
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記表現を表示することを停止すること、
を更に含む、請求項150に記載の方法。
stopping displaying the representation of the field of view of the one or more cameras in response to receiving the request to capture media;
151. The method of claim 150, further comprising:
前記キャプチャ持続時間を調整する前記コントロールは、第1の色で表示され、前記方法は、
メディアをキャプチャする前記要求を受信したことに応じて、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示すること、
を更に含む、請求項150又は151に記載の方法。
the control for adjusting the capture duration is displayed in a first color, the method comprising:
displaying the control for adjusting the capture duration in a second color different from the first color in response to receiving the request to capture media;
152. The method of claim 150 or 151, further comprising:
メディアをキャプチャする前記要求を受信したことに応じて、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを前記第3のキャプチャ値の前記第3のインジケーションに動かす第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間は、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、ことと、
を更に含む、請求項150から152のいずれか一項に記載の方法。
Displaying a first animation moving a third indication of a third capture value to the second indication of the second capture duration in response to receiving the request to capture media. When,
After displaying the first animation, displaying a second animation that moves the second indication of the second capture duration to the third indication of the third capture value. and the duration of the second animation corresponds to the duration of the second capture duration and is different than the duration of the first animation;
153. The method of any one of claims 150-152, further comprising:
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、請求項153に記載の方法。
providing a first tactile output while displaying the first animation;
providing a second tactile output while displaying the second animation;
154. The method of claim 153, further comprising:
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすること、
を更に含む、請求項150から154のいずれか一項に記載の方法。
Capturing the media based on the second capture duration after starting to capture the media;
155. The method of any one of claims 150-154, further comprising:
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間に基づく前記第2のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第2のメディアの表現を表示することと、
を更に含む、請求項155に記載の方法。
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture second media based on the second capture duration after capturing the first media;
initiating capture of the second media based on the second capture duration in response to receiving the request to capture the second media based on the second capture duration;
After initiating capture of the second media based on the second capture duration and before the second capture duration elapses, receiving a request to end capturing the second media. When,
In response to receiving the request to end capturing the second media,
terminating the capture of the second media based on the second capture duration;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a pre-captured representation of the second media. When,
156. The method of claim 155, further comprising:
前記メディアは、前記第2のキャプチャ持続時間に基づいてキャプチャされる第1のメディアであり、前記方法は、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を上回るとの判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
前記第2のメディアのキャプチャを終了する前記要求を受信する前に前記1つ以上のカメラによってキャプチャされた視覚情報に基づいて、終了前にキャプチャされた前記第3のメディアの表現を表示することと、
を更に含む、請求項155又は156に記載の方法。
The media is first media captured based on the second capture duration, the method comprising:
receiving a request to capture a third media based on the second capture duration after capturing the first media;
Initiating capture of the third media based on the second capture duration in response to receiving the request to capture third media based on the second capture duration;
After initiating capture of the third media based on the second capture duration,
according to determining that a detected change in the field of view of the one or more cameras exceeds a movement criterion;
terminating the capture of the third media;
Based on visual information captured by the one or more cameras prior to receiving the request to terminate capturing of the second media, displaying a representation of the third media captured prior to termination. When,
157. The method of claim 155 or 156, further comprising
メディアをキャプチャする前記要求を受信したことに応じて、メディアをキャプチャするように要求する前記アフォーダンスの表示をメディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、請求項155から157のいずれか一項に記載の方法。
responsive to receiving the request to capture media, replacing the indication of affordance requesting to capture media with an indication of affordance to terminate media capture;
158. The method of any one of claims 155-157, further comprising
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現は、前記第1のメディアの前記第1の表現と視覚的に区別される、ことと、
を更に含む、請求項155から158のいずれか一項に記載の方法。
displaying a first representation of the first media captured at a first capture time after starting to capture the media;
After displaying the first representation of the first media, the display of the first representation of the first media is captured at a second capture time after the first capture time. substituting a representation of a second representation of a first medium, wherein the second representation is visually distinct from the first representation of the first medium;
159. The method of any one of claims 155-158, further comprising
前記第1のメディアの前記第1の表現の表示を前記第1のメディアの前記第2の表現の表示に前記置き換えることは、所定の期間後に行われる、請求項159に記載の方法。 160. The method of Claim 159, wherein the replacing the display of the first representation of the first media with the display of the second representation of the first media occurs after a predetermined period of time. 前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法は、
前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第1の選択を受信することと、
前記低光状態キャプチャインジケータの第1の選択を受信したことに応じて、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールを表示することを停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、
を含む、請求項141から160のいずれか一項に記載の方法。
displaying the camera user interface concurrently with the control for adjusting a capture duration in accordance with a determination that a low light condition is met; a low light capture status indicator indicating that a low light capture mode state is active; including displaying
The method includes
receiving a first selection of the low light capture condition indicator while displaying the low light capture condition indicator;
In response to receiving a first selection of the low light condition capture indicator,
ceasing to display the control for adjusting the capture duration while maintaining display of the low-light capture status indicator;
updating the appearance of the low light capture state indicator to indicate that the state of the low light capture mode is inactive;
161. The method of any one of claims 141-160, comprising
前記カメラユーザインタフェースを表示することは、低光条件が満たされたとの判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態インジケータを表示している間に、前記低光キャプチャ状態インジケータの第2の選択を受信することを含み、
前記方法は、
前記低光キャプチャ状態インジケータの前記第2の選択を受信したことに応じて、前記キャプチャ持続時間を調整する前記コントロールを再表示すること、
を含む、請求項161に記載の方法。
Displaying the camera user interface comprises displaying the low light capture status indicator indicating that the low light capture mode is inactive in accordance with a determination that a low light condition has been met, while displaying the low light capture status indicator. receiving a second selection of the light capture status indicator;
The method includes
Redisplaying the control for adjusting the capture duration in response to receiving the second selection of the low light capture status indicator;
162. The method of claim 161, comprising:
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応じて、フラッシュ動作を実行しないように前記電子デバイスを構成することを含む、請求項161に記載の方法。 162. The method of Claim 161, comprising configuring the electronic device to not perform a flash operation in response to receiving the first selection of the low light capture condition indicator. 前記低光条件は、前記低光キャプチャ状態インジケータが選択されるときに満たされる条件を含む、請求項161から163のいずれか一項に記載の方法。 164. The method of any one of claims 161-163, wherein the low light condition comprises a condition met when the low light capture state indicator is selected. 表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項141から164のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 165. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 141-164. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項141から164のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
165. An electronic device, wherein said one or more programs comprise instructions for performing the method of any one of claims 141-164.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項141から164のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 141 to 164;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
A non-transitory computer-readable storage medium, including
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
カメラユーザインタフェースを表示する要求を受信し、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する、命令を含み、前記カメラユーザインタフェースを表示することは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
receive a request to display a camera user interface;
displaying the camera user interface via the display device in response to receiving the request to display the camera user interface, wherein displaying the camera user interface comprises:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
electronic devices, including
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回るときに満たされる条件を含む低光条件が満たされたとの判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応じてメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされなかったとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示をやめることと、
を含む、手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for receiving a request to display a camera user interface;
means for displaying a camera user interface via the display device in response to receiving the request to display the camera user interface, comprising:
displaying a representation of the field of view of the one or more cameras via the display device;
the representation of the field of view of the one or more cameras in accordance with determining that a low light condition is met, including a condition met when ambient light in the field of view of the one or more cameras is below a respective threshold; simultaneously displaying controls for adjusting the capture duration for capturing media in response to a request to capture media;
Ceasing display of the control for adjusting the capture duration in accordance with determining that the low light condition has not been met;
means, including
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめることと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, an amount of light within a field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
simultaneously displaying the
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A method, including
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ、前記フラッシュ動作がアクティブ又は非アクティブに設定されているかを自動的に判定するようにフラッシュ設定が設定されているときに満たされる基準を含む、フラッシュ動作基準が満たされているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、請求項171に記載の方法。
flash settings are configured to automatically determine if the amount of light within the field of view of the one or more cameras meets low-light environment criteria and if the flash operation is set to active or inactive; following the determination that the flash operating criteria are met, including the criteria met when
the flash state indicator indicates that the state of the flash operation is active;
172. The method of Claim 171, wherein said low light capture indicator indicates that said state of said low light capture mode is inactive.
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、かつフラッシュ設定がアクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、かつ前記フラッシュ設定がアクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示す、請求項171又は172に記載の方法。
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
following determining that the amount of light within the field of view of the one or more cameras is within a first predetermined range and that a flash setting is set to active;
the flash state indicator indicates that the state of the flash operation is active;
the low light capture indicator indicates that the state of the low light capture mode is inactive;
following determining that the amount of light within the field of view of the one or more cameras is within the first predetermined range and that the flash setting is not set to active;
the flash state indicator indicates that the state of the flash operation is inactive;
173. The method of claims 171 or 172, wherein said low light capture indicator indicates that said state of said low light capture mode is active.
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されているとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、かつ前記フラッシュ設定が非アクティブに設定されていないとの判定に従って、
前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータは、前記低光キャプチャモードの前記状態が非アクティブであることを示す、請求項173に記載の方法。
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
according to determining that the amount of light within the field of view of the one or more cameras is within a second predetermined range different from the first predetermined range, and the flash setting is set to inactive. ,
the flash state indicator indicates that the state of the flash operation is inactive;
the low light capture indicator indicates that the state of the low light capture mode is active;
determining that the amount of light within the field of view of the one or more cameras is within the second predetermined range different from the first predetermined range and the flash setting is not set to inactive according to
the flash state indicator indicates that the state of the flash operation is active;
174. The method of Claim 173, wherein said low light capture indicator indicates that said state of said low light capture mode is inactive.
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、請求項171から174のいずれか一項に記載の方法。
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the flash status indicator while indicating;
In response to receiving the selection of the flash status indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture indicator to indicate that the state of the low light capture mode is active;
175. The method of any one of claims 171-174, further comprising
前記フラッシュ状態インジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応じて、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、請求項171から175のいずれか一項に記載の方法。
the flash status indicator is displayed and indicates that the state of the flash operation is active; the low light capture indicator is displayed and the state of the low light capture mode is inactive; receiving a selection of the low light capture state indicator while indicating;
In response to receiving the selection of the low light capture condition indicator,
updating the flash status indicator to indicate that the status of the flash operation is inactive;
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
176. The method of any one of claims 171-175, further comprising
前記低光キャプチャモードの前記状態がアクティブであるとの判定に従って、キャプチャ持続時間を調整するコントロールを表示すること、
を更に含む、請求項171から176のいずれか一項に記載の方法。
displaying controls for adjusting a capture duration in accordance with determining that the state of the low-light capture mode is active;
177. The method of any one of claims 171-176, further comprising
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する前記要求を受信したことに応じて、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるとの判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、請求項177に記載の方法。
receiving a request to change the control from a first capture duration to a second capture duration while displaying the control for adjusting the capture duration;
in response to receiving the request to change the control from the first capture duration to the second capture duration;
the low light capture mode to indicate that the state of the low light capture mode is inactive upon determining that the second capture duration is a predetermined capture duration that deactivates the low light capture mode; updating the light capture status indicator;
178. The method of claim 177, further comprising:
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応じて、
低光キャプチャモードの前記状態が非アクティブであるとの判定に従って、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、請求項177に記載の方法。
detecting a change in the state of a low-light capture mode while displaying the controls for adjusting the capture duration;
in response to detecting the change in state of the low light capture mode;
ceasing display of the control for adjusting the capture duration upon determining that the state of low-light capture mode is inactive;
178. The method of claim 177, further comprising:
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応じて、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの持続時間にわたって前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、請求項171から179のいずれか一項に記載の方法。
displaying within the camera user interface a first representation of the field of view of the one or more cameras;
receiving a request to capture a first media of the field of view of the one or more cameras while the state of low-light capture mode is active;
in response to receiving said request to capture a first media while said state of low light capture mode is active;
initiating capture of the first media;
maintaining the display of the first representation of the field of view of the one or more cameras for the duration of the capture of the first media;
179. The method of any one of claims 171-179, further comprising
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に第2のメディアをキャプチャする前記要求を受信したことに応じて、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、請求項171から180のいずれか一項に記載の方法。
receiving a request to capture a second media of the field of view of the one or more cameras while the state of low light capture mode is active;
initiating capture of the second media in response to receiving the request to capture the second media while the state of low light capture mode is active;
concurrently displaying a representation of the second media within the camera user interface while capturing the second media;
181. The method of any one of claims 171-180, further comprising
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に前記第3のメディアをキャプチャする前記要求を受信したことに応じて、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に前記1つ以上のカメラの前記視野から導出された表現を表示することを停止することと、
を更に含む、請求項171から181のいずれか一項に記載の方法。
displaying within the camera user interface a second representation of the field of view of the one or more cameras;
receiving a request to capture a third media of the field of view of the one or more cameras while the state of low-light capture mode is active;
initiating capture of the third media in response to receiving the request to capture the third media while the state of the low light capture mode is active;
ceasing to display representations derived from the field of view of the one or more cameras within the camera user interface while capturing the third media;
182. The method of any one of claims 171-181, further comprising
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示すること、
を更に含む、請求項171から182のいずれか一項に記載の方法。
Displaying the flash status indicator within the camera user interface indicating the status of the flash operation following a determination that the amount of light within the field of view of the one or more cameras does not meet the low light environment criteria. matter,
183. The method of any one of claims 171-182, further comprising
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態は、互いに排他的である、請求項171から183のいずれか一項に記載の方法。 184. The method of any one of claims 171 to 183, wherein said states of said flash operation and said states of said low light capture mode are mutually exclusive. 前記低光キャプチャモードの前記状態は、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、請求項171から184のいずれか一項に記載の方法。 185. The method of any one of claims 171-184, wherein the state of the low light capture mode is selected from the group consisting of an active state, an available state and an inactive state. 前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たしている間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲内にあるとの判定に従って、前記フラッシュ状態インジケータは、前記フラッシュ動作の前記状態が利用可能であることを示す、請求項171又は172及び174から185のいずれか一項に記載の方法。
while the amount of light within the field of view of the one or more cameras meets a low-light environment criterion;
wherein upon determining that the amount of light within the field of view of the one or more cameras is within a third predetermined range, the flash status indicator indicates that the status of flash operation is available. 186. The method of any one of paragraphs 171 or 172 and 174-185.
前記キャプチャ持続時間を調整する前記コントロールは、前記キャプチャ持続時間を調整する第1のコントロールであり、前記方法は、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示している間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの選択を受信したことに応じて、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、
を更に含む、請求項186に記載の方法。
the control for adjusting the capture duration is a first control for adjusting the capture duration, the method comprising:
receiving a selection of the low light capture state indicator while the flash state indicator indicates that the state of flash operation is available;
In response to receiving a selection of said low light capture condition indicator,
updating the low light capture state indicator to indicate that the state of the low light capture mode is active;
displaying a second control for adjusting the capture duration;
187. The method of claim 186, further comprising:
前記1つ以上のカメラの前記視野内の周辺光が第4の所定範囲内にあるとの判定に従って、第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないとの判定に従って、前記第1の低光キャプチャ状態インジケータは、前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、請求項171から187のいずれか一項に記載の方法。
A first low-light capture status indicator provides a first visual representation of the first capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. including
Upon determining that ambient light within the field of view of the one or more cameras is not within the fourth predetermined range, the first low-light capture condition indicator outputs the second light of the first capture duration. 188. The method of any one of claims 171-187, which does not include a visual representation of 1.
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすとの前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態がアクティブであること、及び前記第1のキャプチャ持続時間の第2の視覚表現を含むことを示し、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内であるとの判定に従って、前記低光キャプチャ状態インジケータは、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含む、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、かつ前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない、前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能であることを示す、前記低光キャプチャ状態インジケータとは、互いに視覚的に異なる、
ことを更に含む、請求項171から188のいずれか一項に記載の方法。
in response to detecting the amount of light within the field of view of the one or more cameras, according to the determination that the amount of light within the field of view of the one or more cameras meets low light environment criteria;
upon determining that ambient light within the field of view of the one or more cameras is within a third predetermined range, the low light capture state indicator indicates that the low light capture mode state is active; including a second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range, the low light capture state indicator indicates that the state of the low light capture mode is active. and not including the second visual representation of the first capture duration;
Upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range, the low light capture status indicator indicates that the low light capture mode status is available. , the low-light capture state indicator indicating that the state of the low-light capture mode is active and including the second visual representation of the first capture duration; and the low-light capture mode. the low-light capture state indicator indicating that a state is active and not including the second visual representation of the first capture duration; and indicating that the low-light capture mode state is available. the low-light capture state indicators are visually distinct from each other, showing
189. The method of any one of claims 171-188, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項171から189のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 190. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 171-189. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項171から189のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
200. An electronic device, wherein the one or more programs comprise instructions for performing the method of any one of claims 171-189.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項171から189のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 171 to 189;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出し、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface via the display device;
detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回るときに満たされる基準を含む、低光環境基準を満たすとの判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、
を同時に表示し、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないとの判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータの表示をやめる、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying a camera user interface via the display device;
means for detecting, via one or more sensors of the electronic device, the amount of light within the field of view of the one or more cameras while displaying the camera user interface;
In response to detecting the amount of light within the field of view of the one or more cameras,
the amount of light in the field of view of the one or more cameras meets low light environment criteria, including criteria met when the amount of light in the field of view of the one or more cameras is below a predetermined threshold. In accordance with the determination, within the camera user interface:
a flash status indicator that indicates the status of flash operation;
a low light capture status indicator indicating the status of the low light capture mode;
at the same time,
Ceasing display of the low-light capture status indicator in the camera user interface following a determination that the amount of light within the field of view of the one or more cameras does not meet the low-light environment criteria;
means and
An electronic device comprising:
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示することであって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、ことと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
a method,
In an electronic device equipped with a display device,
displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
including
detecting a first user input corresponding to selection of the first affordance while displaying the media editing user interface;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjusting the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; displaying a control;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A method, including
前記第1の編集可能パラメータを調整する前記調整可能なコントロールは、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することは、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第1の静的部分の表示を維持すること、
を含む、請求項196に記載の方法。
the adjustable control for adjusting the first editable parameter includes a first static portion and a first variable portion;
said adjustable control for adjusting said second editable parameter includes said first static portion and a second variable portion;
displaying the adjustable controls for adjusting the second editable parameter at the respective locations within the media editing user interface;
maintaining on the display device the display of the first static portion at the respective position within the media editing user interface;
197. The method of claim 196, comprising
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールは、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、請求項196又は197に記載の方法。 The adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter produce one or more visual characteristics when adjusted to the same relative position. 198. The method of claim 196 or 197, sharing. 前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの調整された現在値に基づいて調整された前記視覚メディアの調整された表現に置き換えることと、
を更に含む、請求項196から198のいずれか一項に記載の方法。
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the first editable parameter;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected. replacing the display of the representation of with an adjusted representation of the visual media adjusted based on the adjusted current value of the second editable parameter;
199. The method of any one of claims 196-198, further comprising
前記第1の編集可能パラメータは、自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、請求項196から199のいずれか一項に記載の方法。
the first editable parameter is an auto-tuning editable parameter;
196. Adjusting the current value of the first editable parameter according to the first gesture comprises adjusting current values of a plurality of editable parameters including the second editable parameter. 199. The method of any one of Claims 1 to 199.
前記メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータは、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、
を含み、
前記複数の編集可能パラメータの現在値を調整することは、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、請求項199に記載の方法。
The media editing user interface includes a plurality of editable parameter current value indicators, the plurality of editable parameter current value indicators comprising:
a value indicator corresponding to the second editable parameter of the representation of the visual media;
a value indicator corresponding to a third editable parameter of the representation of the visual media;
including
Adjusting current values of the plurality of editable parameters includes:
adjusting the current value of the third editable parameter;
updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter;
updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter;
200. The method of claim 199, comprising
前記メディア編集ユーザインタフェースが、前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応じて、前記第3のアフォーダンスを表示することと、
を更に含む、請求項196から201のいずれか一項に記載の方法。
detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter for editing the representation of the visual media;
displaying the third affordance in response to detecting the third user input;
202. The method of any one of claims 196-201, further comprising
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示し、かつ前記第3のユーザ入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に抑制すること、
を更に含む、請求項202に記載の方法。
displaying the adjustable control for adjusting the first editable parameter and displaying the adjustable control for adjusting the first editable parameter while detecting the third user input; visually restraining,
203. The method of claim 202, further comprising:
前記第3のユーザ入力は、前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に受信され、
前記第3のアフォーダンスを表示することは、
前記第4の編集可能パラメータが第1のタイプのパラメータであるときに満たされる基準を含む、第1の1組の基準が満たされているとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないとの判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの位置に前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示することをやめることと、
を含む、請求項203に記載の方法。
the third user input is received while the adjustable control adjusting the first editable parameter is displayed;
Displaying the third affordance includes:
within the media editing user interface in accordance with a determination that a first set of criteria are met, including criteria met when the fourth editable parameter is a first type parameter; displaying an adjustable control for adjusting the fourth editable parameter at a location of
displaying the adjustable controls for adjusting the fourth editable parameter at the respective locations within the media editing user interface in accordance with the determination that the first set of criteria are not met; to stop and
204. The method of claim 203, comprising:
前記第1のユーザ入力は、前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力は、前記第2のアフォーダンス上のタップ入力である、請求項196から204のいずれか一項に記載の方法。 205. Any one of claims 196-204, wherein the first user input is a tap input on the first affordance and the second user input is a tap input on the second affordance. The method described in . 前記視覚メディアの前記表現及び前記第1のアフォーダンスを表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないとの判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、請求項196から205のいずれか一項に記載の方法。
a first indication of whether the representation of the visual media is currently being adjusted based on the first editable parameter while displaying the representation of the visual media and the first affordance; displaying an editable parameter status indicator;
detecting a fourth user input corresponding to selection of the first affordance;
In response to detecting the fourth user input,
following determining that the presentation of the visual media is currently being adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media that was not adjusted based on the first editable parameter;
following determining that the representation of the visual media is not currently adjusted based on the first editable parameter;
updating the first editable parameter status indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter;
replacing a display of the representation of the visual media with a representation of the visual media adjusted based on the first editable parameter;
206. The method of any one of claims 196-205, further comprising
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するとの判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないとの判定に従って、触知出力を生成することをやめることと、
を含む、請求項196から206のいずれか一項に記載の方法。
Adjusting the current value of the first editable parameter according to the first gesture includes:
generating a tactile output in accordance with determining that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter;
ceasing to generate tactile output upon determining that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter;
207. The method of any one of claims 196-206, comprising
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調すること、
を更に含む、請求項196から207のいずれか一項に記載の方法。
visualizing the adjustable control that adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter; to emphasize
208. The method of any one of claims 196-207, further comprising
第3の編集可能パラメータ現在値インジケータは、前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲しており、第4の編集可能パラメータ現在値インジケータは、前記第2のアフォーダンスを視覚的に包囲している、請求項196から208のいずれか一項に記載の方法。 A third editable parameter current value indicator visually surrounds at least a portion of the first affordance, and a fourth editable parameter current value indicator visually surrounds the second affordance. 209. The method of any one of claims 196-208, wherein 前記電子デバイスは、1つ以上のカメラを含み、
前記視覚メディアの前記表現は、前記1つ又はカメラの視野の表現であり、
前記メディア編集ユーザインタフェースは、前記電子デバイスが、照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように構成されている間に表示され、
前記第1の編集可能パラメータは、照明効果強度であり、
前記第2の編集可能パラメータは、深度効果強度である、請求項196から199及び202から209のいずれか一項に記載の方法。
the electronic device includes one or more cameras;
said representation of said visual media is a representation of a field of view of said one or cameras;
wherein the media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that enables application of lighting effects and depth effects;
wherein the first editable parameter is lighting effect intensity;
210. The method of any one of claims 196-199 and 202-209, wherein said second editable parameter is depth effect strength.
前記第1の編集可能パラメータは、照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースは、前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、前記第1の編集可能パラメータの前記調整された現在値に基づいて、前記照明効果パラメータを調整することを含む、請求項196から199及び202から209のいずれか一項に記載の方法。
the first editable parameter corresponds to a lighting effect parameter;
the media editing user interface includes a value indicator corresponding to the lighting effect parameter;
Adjusting the current value of the first editable parameter according to the first gesture comprises adjusting the lighting effect parameter based on the adjusted current value of the first editable parameter. 209. The method of any one of claims 196-199 and 202-209, comprising
前記第1の編集可能パラメータは、視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することは、
視覚メディアの前記表現の表示を、前記視覚フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えること、
を含む、請求項196から199及び202から209のいずれか一項に記載の方法。
the first editable parameter is a visual filter effect strength;
Adjusting the current value of the first editable parameter according to the first gesture includes:
replacing a display of the representation of visual media with a representation of the visual media adjusted based on the current value of the visual filter effect strength;
210. The method of any one of claims 196-199 and 202-209, comprising
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項196から212のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising: 213. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Clauses 196-212. 電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項196から212のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
213, wherein the one or more programs comprise instructions for performing the method of any one of claims 196-212.
電子デバイスであって、
表示デバイスと、請求項196から212のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device and means for performing the method of any one of claims 196-212;
An electronic device comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、メディア編集ユーザインタフェースであって、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含むメディア編集ユーザインタフェースを表示し、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出し、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出し、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整し、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出し、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示し、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出し、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
on the display device, a media editing user interface;
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
Display a media editing user interface containing
detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; Show the adjustable control to adjust,
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; adjust the current value of the first editable parameter according to the gesture of
detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; show the control
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; adjusting the current value of the second editable parameter according to the gesture of
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、メディア編集ユーザインタフェースを表示する手段であって、前記メディア編集ユーザインタフェースは、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、
を含む、手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応じて、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの位置に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応じて、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応じて、前記メディア編集ユーザインタフェース内の前記それぞれの位置に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、かつ前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応じて、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
means for displaying a media editing user interface on the display device, the media editing user interface comprising:
visual media representation and
a first affordance corresponding to a first editable parameter for editing the representation of the visual media;
a second affordance corresponding to a second editable parameter for editing the representation of the visual media;
means, including
means for detecting, while displaying the media editing user interface, a first user input corresponding to selection of the first affordance;
displaying the first editable parameter on the display device at a respective location within the media editing user interface in response to detecting the first user input corresponding to selection of the first affordance; means for displaying an adjustable control to adjust;
adjusting the first editable parameter while displaying the adjustable control for adjusting the first editable parameter and while the first editable parameter is selected; means for detecting a first gesture directed at the adjustable control;
in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected; means for adjusting the current value of the first editable parameter according to the gesture of
means for detecting a second user input corresponding to selection of the second affordance while displaying on the display device the adjustable control for adjusting the first editable parameter;
adjustable adjusting the second editable parameter to the respective position within the media editing user interface in response to detecting the second user input corresponding to selection of the second affordance; means for displaying controls;
adjusting the second editable parameter while displaying the adjustable control for adjusting the second editable parameter and while the second editable parameter is selected; means for detecting a second gesture directed at the adjustable control;
in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected; means for adjusting the current value of the second editable parameter according to the gesture of
An electronic device comprising:
方法であって、
表示デバイスを備える電子デバイスにおいて、
前記表示デバイス上に、第1のユーザインタフェースを表示することであって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、
ことと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
a method,
In an electronic device equipped with a display device,
displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
and
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective amounts of adjustment to the perspective distortion selected based on the magnitude of the gesture;
A method, including
前記第1のユーザインタフェースは、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、請求項219に記載の方法。
The first user interface includes:
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to horizontal perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a first affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the horizontal perspective distortion of
When selected, update the indication of the adjustable control to indicate a current amount of adjustment to vertical perspective distortion of the first visual medium, and adjust the first visual medium based on user input. a second affordance, configuring the adjustable control to allow adjustment of the current adjustment amount to the vertical perspective distortion of
220. The method of claim 219, comprising
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示すること、
を更に含む、請求項220に記載の方法。
while displaying the first affordance and the second affordance, to indicate a current adjustment amount to rotate visual content within the first representation of the first visual media when selected; simultaneously displaying a third affordance that updates the indication of the adjustable control;
221. The method of claim 220, further comprising:
前記遠近歪は、水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量は、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、請求項219から221のいずれか一項に記載の方法。
the perspective distortion corresponds to horizontal perspective distortion,
222. Any of claims 219-221, wherein the amount of horizontal perspective distortion of the first representation of the first visual medium is different than the amount of horizontal perspective distortion of the second representation of the first visual medium. The method according to item 1.
前記遠近歪は、垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量は、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、請求項219から222のいずれか一項に記載の方法。
the perspective distortion corresponds to vertical perspective distortion,
223. Any of claims 219-222, wherein the amount of vertical perspective distortion of the first representation of the first visual medium is different than the amount of vertical perspective distortion of the second representation of the first visual medium. The method according to item 1.
前記第1の表現は、第1の実視水平線を含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記第1の表現内の視覚境界部に対する回転度を含んでいる間に、前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記回転度を変化させる入力を検出したことに応じて、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記第1の表現を回転させることと、
を更に含む、請求項219から223のいずれか一項に記載の方法。
The first representation includes a first apparent horizontal line, and the method includes:
while the first representation of the first visual medium includes a degree of rotation with respect to a visual boundary within the first representation of the first visual medium; detecting an input that changes the degree of rotation of a representation of 1;
responsive to detecting an input that changes the degree of rotation of the first representation of the first visual medium by an amount determined based on the input; and rotating
224. The method of any one of claims 219-223, further comprising:
前記第1の表現は、前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法は、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含んでいる間に、前記第1の表現の前記第1の視覚コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記第1の視覚コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応じて、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、請求項219から224のいずれか一項に記載の方法。
The first representation includes first visual content of the first visual medium, the method comprising:
a set of one or more inputs that change the first visual content of the first representation while the first representation of the first visual media includes the first visual content; detecting;
in response to detecting the set of one or more inputs that change the first visual content of the first representation of the first visual media, displaying a fourth representation of the first visual media that includes second visual content of the first visual media that is different from the visual content;
225. The method of any one of claims 219-224, comprising
前記第1のユーザインタフェースは、自動調整アフォーダンスを含み、前記方法は、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応じて、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群から選択される前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記調整された2つ以上のパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を更に含む、請求項219から225のいずれか一項に記載の方法。
The first user interface includes auto-tuning affordances, the method comprising:
detecting an input corresponding to the auto-tuning affordance;
In response to detecting the input corresponding to the auto-tuning affordance,
automatically adjusting current values of two or more parameters of the first visual medium selected from the group consisting of a horizontal perspective distortion parameter, a vertical perspective distortion parameter, and a rotation parameter;
displaying a fifth representation of the first visual media based on the adjusted current values of the adjusted two or more parameters;
226. The method of any one of claims 219-225, further comprising:
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応じて、前記表示デバイス上に、第3のユーザインタフェースを表示することであって、
第2の視覚メディアの第2の視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むとの判定に従って、前記自動調整アフォーダンスを表示することと、
前記第2の視覚メディアが前記第2の視覚メディアの前記第2の視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないとの判定に従って、前記自動調整アフォーダンスを表示することをやめることと、
を含む、ことと、
を更に含む、請求項226に記載の方法。
one or more of a second set responsive to a request to display a third user interface different from the first user interface while displaying the first user interface including the auto-adjusting affordance. detecting the input of
Displaying a third user interface on the display device in response to detecting the second set of one or more inputs, comprising:
displaying a representation of at least a portion of the second visual content in the second visual medium;
displaying the auto-adjusting affordance in accordance with determining that the second visual medium includes additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium; ,
Displaying the auto-adjusting affordance in accordance with determining that the second visual medium does not include additional visual content outside a predetermined spatial boundary of the second visual content of the second visual medium. and
including
227. The method of claim 226, further comprising:
前記第1の視覚メディアの前記第1の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの前記視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現は、前記第1の視覚メディアがキャプチャされたときにまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、請求項219から227のいずれか一項に記載の方法。
said first representation of said first visual media does not include additional visual content outside a predetermined spatial boundary of the captured visual content also when said first visual media was captured; a representation of a first portion of the visual content in a first visual medium;
The second representation of the first visual media is at least of the additional visual content outside a predetermined spatial boundary of the visual content that was also captured when the first visual media was captured. 228. The method of any one of claims 219-227, comprising a portion.
前記第1の視覚メディアの前記第1の表現は、第1のアスペクト比で表示され、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を更に含む、請求項219から228のいずれか一項に記載の方法。
said first representation of said first visual media being displayed in a first aspect ratio;
the first user interface includes an aspect ratio affordance;
The method includes
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
displaying a sixth representation of the first visual media at a second aspect ratio different from the first aspect ratio in response to detecting the user input corresponding to the aspect ratio affordance;
229. The method of any one of claims 219-228, further comprising:
前記第1の視覚メディアの前記第1の表現は、第1の向きで表示され、
前記第1のアスペクト比は、第1の水平アスペクト比値及び第1の垂直アスペクト比値を有し、
前記第1のユーザインタフェースは、アスペクト比アフォーダンスを含み、
前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応じて、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することであって、前記第3のアスペクト比は、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、
を有する、ことと、
を更に含む、請求項229に記載の方法。
said first representation of said first visual media being displayed in a first orientation;
the first aspect ratio has a first horizontal aspect ratio value and a first vertical aspect ratio value;
the first user interface includes an aspect ratio affordance;
The method includes
detecting user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual media;
a third aspect ratio different from the first aspect ratio without rotating the first representation of the first visual media in response to detecting the user input corresponding to the aspect ratio affordance; displaying visual feedback showing a portion of the first visual media corresponding to the third aspect ratio of
a second horizontal aspect ratio value equal to the first vertical aspect ratio value;
a second vertical aspect ratio value equal to the first horizontal aspect ratio value;
having
230. The method of claim 229, further comprising:
前記第1のユーザインタフェースを表示することは、
前記第1の視覚メディアが異なる時間に対応するコンテンツの複数のフレームを含むとの判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールと共に、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示すること、
を含む、請求項219から230のいずれか一項に記載の方法。
Displaying the first user interface includes:
along with one or more controls for adjusting perspective, cropping, and/or rotation of the image according to determining that the first visual media includes multiple frames of content corresponding to different times; displaying adjustable controls for adjusting which frames of content corresponding to the visual media are displayed;
231. The method of any one of claims 219-230, comprising
視覚境界部は、前記第1の視覚メディアの第7の表現の第1の部分の周囲に表示され、前記第7の表現は、前記第1の視覚メディア内の第1の時間に対応し、
前記方法は、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応じて、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、
を更に含む、請求項231に記載の方法。
a visual boundary is displayed around a first portion of a seventh representation of the first visual medium, the seventh representation corresponding to a first time within the first visual medium;
The method includes
while displaying the adjustable control that adjusts which frames of content corresponding to the first visual media are displayed; detecting a request to select a representation;
in response to detecting the request to select the time-based representation of the first visual media corresponding to respective times;
displaying an eighth representation of the first visual media corresponding to a second time within the first visual media;
maintaining display of a visual border displayed around a first portion of the eighth representation of the first visual media;
232. The method of claim 231, further comprising:
前記第1の視覚メディアの前記第1の表現は、第1のズームレベルで表示され、前記方法は、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応じて、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、
を更に含む、請求項219から232のいずれか一項に記載の方法。
The first representation of the first visual media is displayed at a first zoom level, the method comprising:
detecting a request to change a zoom level of a representation of the first visual media while displaying the first representation of the first visual media;
a ninth zoom level of the first visual media at a second zoom level different from the first zoom level in response to detecting the request to change the zoom level of the representation of the first visual media; displaying a representation of
233. The method of any one of claims 219-232, further comprising:
前記第1の視覚メディアの前記第1の表現は、第1のカメラレンズの形状及び/又は第1のカメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現は、前記カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、請求項219から233のいずれか一項に記載の方法。
the first representation of the first visual media includes perspective distortion based on a first camera lens shape and/or a first camera position;
234. Any one of Claims 219 to 233, wherein the second representation of the first visual media is adjusted to reduce the perspective distortion based on the shape of the camera lens and/or the position of the camera. The method described in .
前記調整可能なコントロールは、遠近歪を補正するコントロールに対応し、
前記方法は、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪の補正量を更新すること、
を更に含む、請求項219から234のいずれか一項に記載の方法。
said adjustable control corresponds to a control for correcting perspective distortion;
The method includes
responsive to detecting the user input including the gesture directed at the adjustable control, adjusting the amount of perspective distortion correction according to the direction and/or magnitude of the gesture directed at the adjustable control; to update
235. The method of any one of claims 219-234, further comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項219から235及び399のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising: 399. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Clauses 219-235 and 399. 電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項219から235及び399のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 219-235 and 399.
電子デバイスであって、
表示デバイスと、請求項219から235及び399のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device and means for performing the method of any one of claims 219-235 and 399;
An electronic device comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイス上に、第1のユーザインタフェースを表示し、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含み、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出し、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a first user interface on the display device;
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
including simultaneously displaying
detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、第1のユーザインタフェースを表示する手段であって、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、
を同時に表示することを含む、手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応じて、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
means for displaying a first user interface on the display device, comprising:
a first representation in a first visual medium;
adjustable controls including an indication of a current amount of adjustment to the perspective distortion of the first visual medium;
and simultaneously displaying
means for detecting user input including a gesture directed at the adjustable control while displaying the first user interface on the display device;
in response to detecting the user input including the gesture directed at the adjustable control;
means for displaying on the display device a second representation of the first visual media with respective adjustments to the perspective distortion selected based on the magnitude of the gesture;
An electronic device comprising:
方法であって、
表示デバイスを有する電子デバイスにおいて、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示することであって、
1つ以上のカメラの視野の表現を表示することを含む、ことと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することであって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、ことと、
を含む、方法。
a method,
In an electronic device having a display device,
displaying a media capture user interface via the display device, comprising:
including displaying a representation of the field of view of one or more cameras;
displaying controls for adjusting the capture duration for capturing media while the low-light camera mode is active;
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration longer than the first capture duration;
configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
including
A method, including
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、
前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャすることと、
前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャすることと、
を更に含む、請求項242に記載の方法。
receiving the single request to capture the image corresponding to the field of view of the one or more cameras;
in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras;
Capturing the first plurality of images over the first capture duration in accordance with determining that the electronic device is configured to capture the first plurality of images over the first capture duration. and
Capturing the second plurality of images over the second capture duration in accordance with determining that the electronic device is configured to capture the second plurality of images over the second capture duration. and
243. The method of claim 242, further comprising:
前記第1の複数の画像内の画像の量は、前記第2の複数の画像内の画像の前記量とは異なる、請求項243に記載の方法。 244. The method of Claim 243, wherein the amount of images in said first plurality of images is different than said amount of images in said second plurality of images. 前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第1の複数の画像のうちの少なくとも一部のコンテンツを含む第1の合成画像を生成することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応じて、かつ前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているとの前記判定に従って、前記第2の複数の画像のうちの少なくとも一部のコンテンツを含む第2の合成画像を生成することと、
を更に含む、請求項243又は244に記載の方法。
to capture the first plurality of images over the first capture duration in response to receiving the single request to capture the images corresponding to the field of view of the one or more cameras; generating a first composite image including content of at least a portion of the first plurality of images according to the determination that the electronic device is configured to
to capture the second plurality of images over the second capture duration in response to receiving the single request to capture the images corresponding to the field of view of the one or more cameras; generating a second composite image including content of at least a portion of the second plurality of images according to the determination that the electronic device is configured to
245. The method of claim 243 or 244, further comprising
前記コントロールが前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応じて、
前記電子デバイスの前記第1の安定度が第1の安定性閾値を上回るとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、請求項242から245のいずれか一項に記載の方法。
detecting a first stability of the electronic device while displaying the indication that the control is set to the first capture duration;
In response to detecting the first stability of the electronic device,
According to determining that the first stability of the electronic device is above a first stability threshold,
displaying an indication that the control is set to a third capture duration that is longer than the first capture duration;
configuring the electronic device to capture a third plurality of images over the third capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras; and
246. The method of any one of claims 242-245, further comprising:
前記低光カメラモードがアクティブである間に、前記低光カメラモードの状態を示し、かつ、
キャプチャ持続時間表示基準が満たされているとの判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
キャプチャ持続時間表示基準が満たされていないとの判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、
第1の低光キャプチャ状態インジケータを表示すること、
を更に含む、請求項242から246のいずれか一項に記載の方法。
indicating the state of the low-light camera mode while the low-light camera mode is active; and
comprising a visual representation of the first capture duration upon determining that a capture duration display criterion is met;
not including the visual representation of the first capture duration according to a determination that a capture duration display criterion is not met;
displaying a first low light capture status indicator;
247. The method of any one of claims 242-246, further comprising:
前記キャプチャ持続時間表示基準は、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあるときに満たされる基準を含む、請求項247に記載の方法。 248. The method of Claim 247, wherein the capture duration display criteria include criteria met when ambient light within the field of view of the one or more cameras is within a first predetermined range. 前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ第3のキャプチャ持続時間の視覚表現を含む、第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるとの判定に従って、前記低光カメラモードの状態がアクティブであることを示し、かつ前記第3のキャプチャ持続時間の前記視覚表現を含まない、第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定範囲内にあるとの判定に従って、前記低光カメラモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとは、互いに視覚的に異なる、ことと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるとの判定に従って、前記第2の低光キャプチャ状態インジケータ、前記第3の低光キャプチャ状態インジケータ、及び前記第4の低光キャプチャ状態インジケータを表示することをやめることと、
を更に含む、請求項242から248のいずれか一項に記載の方法。
Before said low light camera mode is active,
indicating that the low-light camera mode state is active, and a third capture duration, in accordance with determining that ambient light within the field of view of the one or more cameras is within a second predetermined range. displaying a second low-light capture status indicator comprising a visual representation of
indicating that the low-light camera mode state is active, and the third capture duration upon determining that ambient light within the field of view of the one or more cameras is within a fourth predetermined range. displaying a third low-light capture status indicator that does not include the visual representation of time;
A fourth low-light capture status indicator indicating that the low-light camera mode status is available upon determining that ambient light within the field of view of the one or more cameras is within a fifth predetermined range. wherein the second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually distinct from one another. ,
the second low-light capture state indicator, the third low-light capture state indicator, and the ceasing to display the fourth low light capture status indicator;
249. The method of any one of claims 242-248, further comprising:
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールは、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、
に調整可能であるように構成されている、請求項242から249のいずれか一項に記載の方法。
The control for adjusting the capture duration for capturing media comprises:
a first state corresponding to a first recommended capture duration value;
a second state corresponding to a second recommended capture duration value;
a third state corresponding to a third recommended capture duration value;
249. The method of any one of claims 242-249, wherein the method is configured to be adjustable to .
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間は、前記第2の推奨されるキャプチャ持続時間値である、ことと、
を含む、請求項250に記載の方法。
displaying the control for adjusting the capture duration for capturing media;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state according to determining that the set of first capture duration criteria are met; , the first capture duration is the second recommended capture duration value;
displaying the controls for adjusting the capture duration for capturing the media conditioned to the second state in accordance with determining that the set of second capture duration criteria are met; , the second capture duration is the second recommended capture duration value;
251. The method of claim 250, comprising:
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することは、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値である、
ことを含む、請求項250又は251に記載の方法。
displaying the control for adjusting the capture duration for capturing media;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the first set of capture duration criteria are met; a recommended capture duration value of 3 is the third capture duration value;
according to the determining that the control for adjusting the capture duration for capturing media is in the third state and determining that the set of second capture duration criteria are met; 3 recommended capture duration values are a fourth capture duration value different from the third capture duration value;
252. The method of claim 250 or 251, comprising
前記第2の推奨されるキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ持続時間値であり、前記方法は、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応じて、
第1の現在の条件が第3のキャプチャ持続時間基準が満たされていることを満たすとの判定に従って、
前記第2の推奨されるキャプチャ持続時間値を、第7のキャプチャ持続時間値であって、前記第5のキャプチャ持続時間値は、前記第7のキャプチャ持続時間値とは異なる、第7のキャプチャ持続時間値に、及び、
前記第3の推奨されるキャプチャ持続時間値を、前記第6のキャプチャ持続時間値とは異なる第8のキャプチャ持続時間値に、
のうちの少なくとも1つに変更することと、
を更に含む、請求項250から252のいずれか一項に記載の方法。
The second recommended capture duration value is a fifth capture duration value and the third recommended capture duration value is a sixth capture duration value, the method comprising:
detecting a first change in a current condition of the electronic device while displaying the controls for adjusting a capture duration for capturing media;
in response to detecting the first change in the current condition of the electronic device;
Upon determining that the first current condition satisfies a third capture duration criterion is met,
A seventh capture wherein the second recommended capture duration value is a seventh capture duration value, the fifth capture duration value being different than the seventh capture duration value a duration value, and
setting the third recommended capture duration value to an eighth capture duration value that is different from the sixth capture duration value;
changing to at least one of
253. The method of any one of claims 250-252, further comprising:
前記1組の第1のキャプチャ持続時間基準は、
前記1つ以上のカメラの前記視野内で検出された周辺光と、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、
からなる群から選択される1つ以上のパラメータに基づく基準を含む、請求項250から253のいずれか一項に記載の方法。
The set of first capture duration criteria comprises:
ambient light detected within the field of view of the one or more cameras;
movement detected within the field of view of the one or more cameras;
a second stability of the electronic device;
254. The method of any one of claims 250-253, comprising criteria based on one or more parameters selected from the group consisting of:
前記メディアキャプチャユーザインタフェースを表示することは、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法は、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択は、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、ことと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を更に含む、請求項250から254のいずれか一項に記載の方法。
Displaying the media capture user interface includes displaying affordances for capturing media concurrently with the representation of the field of view of the one or more cameras, the method comprising:
selecting the affordance to capture media while displaying the affordance to capture media and displaying the indication that the control is set to a third capture duration; detecting an input, wherein the selection of the affordances to capture media corresponds to the single request to capture an image corresponding to the field of view of the one or more cameras;
Initiating capture of a fourth plurality of images over the first capture duration in response to detecting the first input corresponding to the affordance of capturing media;
255. The method of any one of claims 250-254, further comprising:
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第1のインジケーションであり、
前記第1のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置に前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応じて、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を更に含む、請求項255に記載の方法。
the indication that the control is set to the third capture duration is a first indication;
said first indication being displayed at a first location on said control corresponding to said third capture duration;
The method includes
An animation that moves the first indication from the first position on the control to a second position on the control in response to detecting the first input corresponding to the affordance to capture media. and displaying
redisplaying the first indication at the first location on the control in response to displaying the first indication at the second location;
256. The method of claim 255, further comprising:
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションは、第2のインジケーションであり、
前記第2のインジケーションは、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法は、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置に前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
現在の条件の前記第2の変化を検出したことに応じて、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすとの判定に従って、かつ前記第4の位置に前記第1のインジケーションを表示したことに応じて、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を更に含む、請求項256に記載の方法。
the indication that the control is set to the third capture duration is a second indication;
the second indication is displayed at a third location on the control corresponding to the third capture duration;
The method includes
In response to detecting the first input corresponding to the affordance of capturing media:
displaying an animation that moves the second indication from the third position on the control to a fourth position on the control;
detecting a second change in a current condition of the electronic device while displaying the animation;
In response to detecting said second change in current conditions,
the third capture duration in response to determining that a second current condition satisfies a fourth capture duration criterion and in response to displaying the first indication at the fourth location; displaying the second indication at a fifth location on the control corresponding to a different fourth capture duration;
257. The method of claim 256, further comprising:
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、メディアをキャプチャする前記アフォーダンスの視覚外観を変更すること、
を更に含む、請求項255から257のいずれか一項に記載の方法。
changing a visual appearance of the media-capturing affordance in response to detecting the first input corresponding to the media-capturing affordance;
258. The method of any one of claims 255-257, further comprising
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、請求項255から258のいずれか一項に記載の方法。
capturing media wherein a display of the affordance to capture the media is visually distinct from the affordance to capture the media in response to detecting the first input corresponding to the affordance to capture the media. with the indication of the affordance that ends,
259. The method of any one of claims 255-258, further comprising:
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応じて、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示すること、
を更に含む、請求項255から259のいずれか一項に記載の方法。
posing the electronic device when the media capture is initiated and capturing media via the display device in response to detecting the first input corresponding to the affordance to capture the media; displaying a visual indication of the difference between the pose of the electronic device at a first time after initiating
260. The method of any one of claims 255-259, further comprising
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、かつ前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るとの判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないとの判定に従って、前記1つ以上の低光モードアニメーションを表示することをやめることと、
を更に含む、請求項255に記載の方法。
after initiating capture of the first plurality of images for the first capture duration and prior to detecting the end of capturing the first plurality of images for the first capture duration;
displaying one or more low light mode animations in accordance with determining that the first capture duration exceeds a threshold;
ceasing to display the one or more low light mode animations upon determining that the first capture duration does not exceed a threshold;
256. The method of claim 255, further comprising:
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともなんらかのコンテンツに基づく第4の合成画像の表現を表示することであって、
前記第1の時間は、前記第2の時間とは異なり、
前記第3の合成画像の前記表現は、前記第4の合成画像の前記表現と視覚的に区別される、
ことと、
を更に含む、請求項242から261のいずれか一項に記載の方法。
While capturing said media,
from a plurality of images captured by the one or more cameras prior to the first time at a first time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a third composite image based on at least some content of
from a plurality of images captured by the one or more cameras prior to the second time at a second time after initiating capture of the first plurality of images for the first capture duration displaying a representation of a fourth composite image based on at least some content of
the first time is different from the second time,
the representation of the third composite image is visually distinct from the representation of the fourth composite image;
and
262. The method of any one of claims 242-261, further comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項242から262のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising: 263. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Clauses 242-262. 電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項242から262のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 242-262.
電子デバイスであって、
表示デバイスと、請求項242から262のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device and means for performing the method of any one of claims 242-262;
An electronic device comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
Configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras. and
displaying said controls for adjusting the capture duration for capturing media;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の表現を表示することを含む、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示し、
低光カメラモードがアクティブである間に、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a representation of the field of view of one or more cameras;
displaying a media capture user interface via the display device;
While low light camera mode is active,
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to the first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
Configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras. and
displaying said controls for adjusting the capture duration for capturing media, including
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、メディアキャプチャユーザインタフェースを表示する手段であって、
1つ以上のカメラの視野の表現を表示することを含む、
手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段であって、
1組の第1のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応じて、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準が満たされているとの判定に従って、
前記コントロールが前記第1のキャプチャ持続時間よりも長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応じて、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、手段と、
を備える、電子デバイス。
an electronic device,
a display device;
means for displaying a media capture user interface via the display device, comprising:
displaying a representation of the field of view of one or more cameras;
means and
means for displaying controls for adjusting the capture duration for capturing media while the low light camera mode is active;
Upon determining that a set of first capture duration criteria are met,
displaying an indication that the control is set to a first capture duration;
configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture images corresponding to fields of view of the one or more cameras; ,
Upon determining that a second set of capture duration criteria, different from the first set of capture duration criteria, are met,
displaying an indication that the control is set to a second capture duration that is longer than the first capture duration;
Configuring the electronic device to capture a second plurality of images over the second capture duration in response to the single request to capture the images corresponding to the fields of view of the one or more cameras. and
means, including
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after initiating media capture;
A method, including
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、請求項269に記載の方法。 270. The Claim 269 of Claim 269, wherein the set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a first capture duration that exceeds a threshold duration. Method. 前記視覚インジケーションは、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、第2の位置に表示される、第2の1組の1つ以上の形状と、
を含む、形状の組を含む、請求項269又は270に記載の方法。
The visual indication is
a first set of one or more shapes representing the pose of the electronic device when the media capture is initiated, displayed at a first location on the media capture user interface; a set of one or more shapes;
a second set of one or more shapes representing the pose of the electronic device at the first time after starting media capture, displayed at a second location; a set of one or more shapes;
271. The method of claim 269 or 270, comprising a set of shapes comprising
前記第1の1組の1つ以上の形状は、第1の色を含み、
前記第2の1組の1つ以上の形状は、前記第1の色とは異なる第2の色を含む、請求項271に記載の方法。
said first set of one or more shapes comprising a first color;
272. The method of Claim 271, wherein the second set of one or more shapes comprises a second color different than the first color.
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、前記メディアキャプチャユーザインタフェース上の前記第2の位置とは異なる前記メディアキャプチャユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、請求項271又は272に記載の方法。
detecting a change in pose of the electronic device at a second time after initiating capture;
said second set at a third location on said media capture user interface that is different than said second location on said media capture user interface in response to detecting said change in said pose of said electronic device; displaying one or more shapes of
273. The method of claim 271 or 272, further comprising:
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記第1の1組の1つ以上の形状の前記第1の位置と前記第2の1組の1つ以上の形状の第3の位置との間の差が第1の閾値差内にあるとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つの表示をやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないとの判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、請求項271から273のいずれか一項に記載の方法。
In response to detecting the change in the pose of the electronic device,
the difference between the first position of the first set of one or more shapes and the third position of the second set of one or more shapes is within a first threshold difference ceasing to display at least one of the first set of one or more shapes or the second set of one or more shapes, according to the determination of
a difference between the first position of the first set of one or more shapes and a third position of the second set of one or more shapes is within a first threshold difference maintaining display of the first set of one or more shapes or the second set of one or more shapes, according to a determination that the
274. The method of any one of claims 271-273, further comprising
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応じて、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるとの判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、前記第2の閾値差内にないとの判定に従って、前記触知出力を生成することをやめることと、
を更に含む、請求項269から274のいずれか一項に記載の方法。
detecting a change in pose of the electronic device at a second time after initiating capture;
In response to detecting the change in the pose of the electronic device,
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after the media capture is initiated is a second threshold difference generating a tactile output in accordance with the determination that it is within;
A difference between the pose of the electronic device when the media capture is initiated and the pose of the electronic device at the second time after media capture is initiated is the second threshold difference. ceasing to generate the tactile output in accordance with the determination that the
275. The method of any one of claims 269-274, further comprising
1組のガイダンス基準が満たされているとの判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示すること、
を更に含む、請求項269から275のいずれか一項に記載の方法。
Upon determination that a set of guidance criteria has been met,
displaying a representation corresponding to a request to stabilize the electronic device while capturing media;
276. The method of any one of claims 269-275, further comprising
前記1組のガイダンス基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示することをやめること、
を更に含む、請求項269から276のいずれか一項に記載の方法。
ceasing to display the visual indication of the difference via the display device following a determination that the set of guidance criteria are not met;
277. The method of any one of claims 269-276, further comprising
前記視覚インジケーションは、前記第1の時間に表示され、前記方法は、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応じて、前記表示デバイスを介して、前記視覚インジケーションを表示することをやめることと、
を更に含む、請求項269から277のいずれか一項に記載の方法。
The visual indication is displayed at the first time, the method comprising:
detecting the end of the capture of the media at a third time different than the first time;
ceasing to display the visual indication via the display device in response to detecting the end of the capture of the media;
278. The method of any one of claims 269-277, further comprising
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項269から278のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising: 279. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Clauses 269-278. 電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項269から278のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 269-278.
電子デバイスであって、
表示デバイスと、請求項269から278のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device and means for performing the method of any one of claims 269 to 278;
An electronic device comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであるときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
At a first time after initiating media capture via the one or more cameras,
said electronic device when said media capture is initiated via said display device according to a determination that a set of guidance criteria are met, including criteria met when a low light mode is active; and a pose of the electronic device at the first time after starting media capture;
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、こと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
A set of first respective criteria are met, including criteria met when a first respective object within the field of view of the one or more cameras is a first distance from the one or more cameras. displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, according to the determination that the
a set of second respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including
A method, including
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、請求項285に記載の方法。 286. The method of Claim 285, wherein the second region includes multiple control affordances for controlling multiple camera settings. 前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であるときに満たされる基準を含む、1組の第3のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
更に含む、請求項285又は286に記載の方法。
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a first request to adjust focus settings of the electronic device while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
causing the electronic device to focus on a second respective object within the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device. configuring;
while the electronic device is configured to focus on the second respective object within the field of view of the one or more cameras;
A set of third respective criteria, including criteria met when the second respective objects within the fields of view of the one or more cameras are a third distance from the one or more cameras. ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance, according to determining that is satisfied;
287. The method of claim 285 or 286, further comprising.
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であるときに満たされる基準を含む、1組の第4のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を更に含む、請求項285から287のいずれか一項に記載の方法。
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras in said first visual appearance; detecting a first change in distance between the one or more cameras;
in response to detecting the first change in distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of fourth respective criteria, including criteria met when the first respective objects within the fields of view of the one or more cameras are a fourth distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
288. The method of any one of claims 285-287, further comprising
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、
前記第2の領域内に、前記第2の領域内に以前に表示されていた前記1つ以上のカメラの前記視野の第3の部分の少なくとも一部を表示することを停止すること、
を含む、請求項285から288のいずれか一項に記載の方法。
Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance;
stopping displaying in the second region at least a portion of a third portion of the field of view of the one or more cameras previously displayed in the second region;
289. The method of any one of claims 285-288, comprising
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることは、前記第2の領域上に重ね合わされた第1の黒化層の不透明度を増大させることを含む、請求項285から289のいずれか一項に記載の方法。 Ceasing to display the second portion of the field of view of the one or more cameras within the second region in the first visual appearance includes a second visual appearance superimposed on the second region. 290. The method of any one of claims 285-289, comprising increasing the opacity of one blackened layer. 前記電子デバイスは、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように構成されており、前記方法は、
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応じて、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であるときに満たされる基準を含む、1組の第5のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、請求項285から290のいずれか一項に記載の方法。
The electronic device is configured to focus on the first respective object within the field of view of the one or more cameras, the method comprising:
receiving a second request to adjust focus settings of the electronic device while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance;
responsive to receiving the second request to adjust the focus setting of the electronic device to focus on a third respective object within the field of view of the one or more cameras; configuring;
while the electronic device is configured to focus on the third respective object within the field of view of the one or more cameras;
a set of fifth respective criteria comprising criteria met when said third respective objects within said fields of view of said one or more cameras are a fifth distance from said one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance within the second region, according to the determination that it is satisfied;
291. The method of any one of claims 285-290, further comprising
前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されていない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応じて、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であるときに満たされる基準を含む、1組の第6のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、請求項285から291のいずれか一項に記載の方法。
said first respective object within said field of view of said one or more cameras and said second portion of said field of view of said one or more cameras is not displayed in said first visual appearance; detecting a second change in distance between the one or more cameras;
in response to detecting the second change in the distance between the first respective object within the field of view of the one or more cameras and the one or more cameras;
a set of sixth respective criteria, including criteria met when the first respective objects within the field of view of the one or more cameras are a sixth distance from the one or more cameras; displaying the second portion of the field of view of the one or more cameras in the first visual appearance in the second region, according to the determination that it is satisfied;
292. The method of any one of claims 285-291, further comprising
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、請求項285から292のいずれか一項に記載の方法。 Displaying the second portion of the field of view of the one or more cameras in the second region in the first visual appearance comprises: 293. The method of any one of claims 285-292, comprising displaying a fourth portion of the field of view of the one or more cameras not previously displayed in the . 前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、前記第2の領域上に重ね合わされた第2の黒化層の不透明度を減少させることを含む、請求項285から293のいずれか一項に記載の方法。 Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance includes a second black superimposed on the second region. 294. The method of any one of claims 285-293, comprising reducing the opacity of the layer. 前記第1の視覚外観は、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することは、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に漸進的に遷移させるアニメーションを表示することであって、前記第2の視覚外観は、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、こと、
を含む、請求項285から294のいずれか一項に記載の方法。
wherein the first visual appearance includes a first visual prominence, and displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
displaying an animation that progressively transitions the second portion of the field of view of the one or more cameras from a second visual appearance to the first visual appearance, wherein the second visual appearance is , having a second visual prominence different from the first visual prominence;
295. The method of any one of claims 285-294, comprising
前記第1の部分は、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法は、
前記第1の部分が前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が前記第1の視覚外観で表示されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を更に含む、請求項285に記載の方法。
said first portion being displayed in a third visual appearance different from said first visual appearance;
The method includes
Capturing media while the first portion is displayed in the third visual appearance and the second portion of the field of view of the one or more cameras is displayed in the first visual appearance receiving a request to
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
content from the first portion of the field of view of the one or more cameras and the second portion of the field of view of the one or more cameras after capturing the media corresponding to the field of view of the one or more cameras; displaying a representation of the media, including content from part 2;
286. The method of claim 285, further comprising:
前記第2の領域の少なくとも第1の部分は、前記第1の領域の上方にある、請求項285から296のいずれか一項に記載の方法。 297. The method of any one of claims 285-296, wherein at least a first portion of said second region is above said first region. 前記第2の領域の少なくとも第2の部分は、前記第2の領域の下方にある、請求項285から297のいずれか一項に記載の方法。 298. The method of any one of claims 285-297, wherein at least a second portion of the second region is below the second region. 前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、請求項285から298のいずれか一項に記載の方法。
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
299. The method of any one of claims 285-298, further comprising
前記第1の視覚外観で表示されるとき、前記第2の領域は、前記第1領域と視覚的に区別される、請求項285から299のいずれか一項に記載の方法。 300. The method of any one of clauses 285-299, wherein the second region is visually distinct from the first region when displayed in the first visual appearance. 前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであるときに満たされる基準を含む、請求項285から300のいずれか一項に記載の方法。 Claim 285, wherein said set of first respective criteria includes criteria met when said first respective object is the closest object identified within said field of view of said one or more cameras. 300. The method of any one of 300. 前記1組の第1のそれぞれの基準は、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の位置にあるときに満たされる基準を含む、請求項285から301のいずれか一項に記載の方法。 302. The set of claims 285 to 301, wherein the set of first respective criteria includes criteria met when the first respective object is at a position of focus within the field of view of the one or more cameras. A method according to any one of paragraphs. 前記第1の領域は、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準は、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回るときに満たされる基準を含む、請求項285から302のいずれか一項に記載の方法。
the first region is separated from the second region by a boundary;
303. The set of first respective criteria includes criteria met when a detected visual tear adjacent to the boundary is above a threshold level of visual tear. The method described in section.
前記1組の第1のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であるときに満たされる基準を含み、
前記1組の第2のそれぞれの基準は、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であるときに満たされる基準を含む、請求項285から303のいずれか一項に記載の方法。
the set of first respective criteria includes criteria met when the first portion of the field of view of the one or more cameras is a portion of the field of view of a first camera;
from claim 285, wherein the set of second respective criteria includes criteria met when the second portion of the field of view of the one or more cameras is a portion of the field of view of a second camera; 303. The method of any one of paragraphs 303.
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、請求項285から304のいずれか一項に記載の方法。
receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras in the first visual appearance;
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured in the field of view of the one or more cameras; including content from a first portion and content from the second portion of the field of view of the one or more cameras;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the one or more cameras and the one or more cameras in response to receiving the request to edit the captured media; displaying a representation of the captured media including at least a portion of the content from the second portion of the field of view;
305. The method of any one of claims 285-304, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項285から305のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 306. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 285-305. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項285から305のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 285-305.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項285から305のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 285-305;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region, the camera user interface comprising:
a set of first respective criteria met, including criteria met when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras; displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, in accordance with the determination that the
a set of second respective criteria including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
display the camera user interface,
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含むカメラユーザインタフェースであって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
カメラユーザインタフェースを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region, the camera user interface comprising:
a set of first respective criteria met, including criteria met when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras; displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, in accordance with the determination that the
a set of second respective criteria including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
display the camera user interface,
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、かつ前記第1の領域と視覚的に区別される第2の領域と、を含み、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であるときに満たされる基準を含む、1組の第1のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であるときに満たされる基準を含む、1組の第2のそれぞれの基準が満たされているとの判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することをやめることと、
を含む、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a first region containing a first representation of a first portion of the field of view of the one or more cameras;
a second region outside the first region and visually distinct from the first region;
a set of first respective criteria met, including criteria met when a first respective object in the field of view of the one or more cameras is a first distance from the one or more cameras; displaying a second portion of the field of view of the one or more cameras in a first visual appearance within the second region, in accordance with the determination that the
a set of second respective criteria including criteria met when the first respective objects within the fields of view of the one or more cameras are a second distance from the one or more cameras; Ceasing to display the second portion of the field of view of the one or more cameras in the second region in the first visual appearance according to the determination that it is satisfied;
including,
means and
An electronic device comprising:
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、ことと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
a method,
An electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera,
displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A method, including
前記第2のカメラの前記視野の前記第1の部分は、前記第2のカメラの前記視野の前記第2の部分とは異なる、請求項312に記載の方法。 313. The method of Claim 312, wherein the first portion of the field of view of the second camera is different than the second portion of the field of view of the second camera. 前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応じて、
前記第3のズームレベルが第1のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、請求項312又は313に記載の方法。
displaying the representation of the second portion of the field of view of the first camera in the first region at the second zoom level; and displaying the representation of the second portion of the field of view of the first camera in the second region at the second zoom level. and while displaying the representation of the second portion of the field of view of the second camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a third receiving a second request to increase to the zoom level;
in response to receiving the second request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level;
According to determining that the third zoom level is within the first zoom value range,
displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first region;
displaying a representation of a fourth portion of the field of view of the first camera at the third zoom level in the second region;
314. The method of claim 312 or 313, further comprising
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応じて、
前記第4のズームレベルが第2のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、請求項314に記載の方法。
displaying the representation of the third portion of the field of view of the first camera in the first region at the third zoom level; and displaying the representation of the third portion of the field of view of the first camera in the second region at the third zoom level. and while displaying the representation of the fourth portion of the field of view of the first camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a fourth receiving a third request to increase to the zoom level;
in response to receiving the third request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level;
Following determining that the fourth zoom level is within a second range of zoom values,
displaying a representation of a fifth portion of the field of view of the third camera excluding at least a subset of the third portion of the field of view of a third camera at the fourth zoom level in the first region; and
without displaying, in the second region, a representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in the region of displaying a representation of a fifth portion of the field of view of a camera;
315. The method of claim 314, further comprising:
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも前記サブセットを除外する前記第3のカメラの前記視野の前記第5の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの前記表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の前記第5の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求受信したことに応じて、
前記第5のズームレベルが第3のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、請求項315に記載の方法。
the fifth portion of the field of view of the third camera excluding at least the subset of the third portion of the field of view of the third camera in the first region at the fourth zoom level; and in the second region the representation of the subset of the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera said portion of said field of view of said third camera excluded from said fifth portion of said field of view of said third camera at said fourth zoom level in said second region without displaying while displaying the representation of the fifth portion of the field of view of the first camera overlapping with the subset of receiving a fourth request to increase to a fifth zoom level;
in response to receiving said fourth request to increase said zoom level of said representation of said portion of said field of view of said one or more cameras to said fifth zoom level;
According to determining that the fifth zoom level is within a third zoom value range,
displaying a representation of a sixth portion of the field of view of the third camera at the fifth zoom level in the first region;
displaying a representation of a seventh portion of the field of view of the third camera at the fifth zoom level in the second region;
316. The method of claim 315, further comprising:
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第6の部分の前記表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の前記第7の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応じて、
前記第6のズームレベルが前記第2の領域内に表示するために第4のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくともサブセットを除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、請求項316に記載の方法。
displaying the representation of the sixth portion of the field of view of the third camera in the first region at the fifth zoom level; and displaying the representation of the sixth portion of the field of view of the third camera in the second region at the fifth zoom level. and, while displaying the representation of the seventh portion of the field of view of the third camera, moving the zoom level of the representation of the portion of the field of view of the one or more cameras to a sixth receiving a first request to down zoom level;
in response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level;
following determining that the sixth zoom level is within a fourth range of zoom values for display within the second region;
a representation of an eighth portion of the field of view of the third camera that excludes at least a subset of the third portion of the field of view of the third camera at the sixth zoom level in the first region; and displaying
without displaying in the second region a representation of the subset of the portion of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera; overlapping with said subset of said portion of said field of view of said third camera excluded from said eighth portion of said field of view of said third camera at said sixth zoom level in the region of displaying a representation of an eighth portion of the field of view of a camera;
317. The method of claim 316, further comprising:
前記第1の領域において、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットの前記表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくともサブセットと重なり合う前記第3のカメラの前記視野の前記第8の部分の前記表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも前記サブセットを除外する前記第1のカメラの前記視野の前記第8の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第2の要求を受信したことに応じて、
前記第7のズームレベルが第5のズーム値範囲内にあるとの判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、請求項317に記載の方法。
in said first region, at said sixth zoom level, without displaying said representation of at least said subset of said eighth portion of said field of view of said first camera in said first region; displaying the representation of the eighth portion of the field of view of the third camera overlapping at least a subset of the eighth portion of the field of view of the first camera; while displaying said representation of said eighth portion of said field of view of said first camera excluding at least said subset of said eighth portion of said field of view of said first camera at a zoom level of , receiving a second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to a seventh zoom level;
in response to receiving the second request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level;
According to determining that the seventh zoom level is within a fifth zoom value range,
displaying a representation of a ninth portion of the field of view of the first camera at the seventh zoom level in the first region;
displaying a representation of a tenth portion of the field of view of the first camera at the seventh zoom level in the second region;
318. The method of claim 317, further comprising:
前記第2の領域は、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、請求項312から318のいずれか一項に記載の方法。 319. The method of any one of claims 312-318, wherein the second region includes a plurality of control affordances for controlling a plurality of camera settings. 前記カメラユーザインタフェース上の位置での入力を受信することと、
前記カメラユーザインタフェース上の前記位置での前記入力を受信したことに応じて、
前記入力の前記位置が前記第1の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記位置が前記第2の領域内にあるとの判定に従って、前記入力の前記位置に焦点を合わせるように前記電子デバイスを構成することをやめることと、
を更に含む、請求項312から319のいずれか一項に記載の方法。
receiving input at a location on the camera user interface;
in response to receiving the input at the location on the camera user interface;
configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the first region;
discontinuing configuring the electronic device to focus on the position of the input in accordance with determining that the position of the input is within the second region;
320. The method of any one of claims 312-319, further comprising
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアは、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、ことと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応じて、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツの少なくとも一部を含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、請求項312に記載の方法。
A request to capture media while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level. and receiving
capturing media corresponding to the field of view of the one or more cameras in response to receiving the request to capture media, wherein the media is captured at the first zoom level at the first zoom level; and content from the first portion of the field of view of the second camera at the first zoom level;
receiving a request to edit the captured media after capturing the media;
at least a portion of the content from the first portion of the field of view of the first camera at the first zoom level and the displaying a representation of the captured media including at least a portion of the content from the first portion of the field of view of the second camera at a first zoom level;
313. The method of claim 312, further comprising:
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項312から321のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera 322. A non-transitory computer-readable storage medium storing one or more programs stored therein, said one or more programs comprising instructions for performing the method of any one of claims 312-321. A non-transitory computer-readable storage medium. 電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項312から321のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 312-321.
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、請求項312から321のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than said field of view of said first camera; means for performing the method of any one of claims 312 to 321;
An electronic device comprising:
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera a non-transitory computer-readable storage medium storing one or more programs, the one or more programs comprising:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースであって、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、カメラユーザインタフェースを表示し、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信し、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level via the display device,
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
display the camera user interface, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記第1のズームレベルでの前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルでの前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、
を含む、手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記一部分の前記表現の前記ズームレベルを前記第2のズームレベルまで上げる前記第1の要求を受信したことに応じて、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくともサブセットを除外する前記第1のカメラの前記視野の第2の部分の表現を表示し、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なり合う前記第2のカメラの前記視野の第2の部分の表現を表示する、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
a first camera having a field of view;
a second camera having a wider field of view than the field of view of the first camera;
one or more cameras;
means for displaying, via the display device, a camera user interface including a representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level, the camera user interface comprising:
a first region containing a representation of a first portion of the field of view of the first camera at the first zoom level;
a second region containing a representation of a first portion of the field of view of the second camera at the first zoom level;
means, including
while displaying, via the display device, the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level; means for receiving a first request to increase the zoom level of the representation of the portion of the field of view of a camera to a second zoom level;
in response to receiving the first request to increase the zoom level of the representation of the portion of the field of view of the one or more cameras to the second zoom level;
a representation of a second portion of the field of view of the first camera that excludes at least a subset of the first portion of the field of view of the first camera in the first region and at the second zoom level; to display
without displaying in the second region a representation of the subset of the portion of the field of view of the first camera excluded from the second portion of the field of view of the first camera; overlapping with said subset of said portion of said field of view of said first camera excluded from said second portion of said field of view of said first camera at said second zoom level in the region of displaying a representation of a second portion of the field of view of a camera;
means and
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、ことと、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, the plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
Receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed at the first zoom affordance; and
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A method, including
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるとの前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、請求項328に記載の方法。
Maintaining visual characteristics of the second zoom affordance and modifying visual characteristics of the first zoom affordance in accordance with the determination that the first gesture is the gesture directed at the first zoom affordance. and
maintaining the visual properties of the first zoom affordance and the visual properties of the second zoom affordance in accordance with the determination that the first gesture is the gesture directed at the second zoom affordance; and
329. The method of claim 328, further comprising:
前記第1のズームアフォーダンスの前記視覚特性を変更することは、
第1のサイズから第2のサイズに前記第1のズームアフォーダンスのサイズを変更することであって、前記第1のズームアフォーダンスの前記第2のサイズは、前記第2のズームアフォーダンスの現在のサイズとは異なる、こと、及び
第1の色から第2の色に前記第1のズームアフォーダンスの色を変更することであって、前記第1のズームアフォーダンスの前記第2の色は、前記第2のズームアフォーダンスの現在の色とは異なる、こと、
のうちの1つ以上を含む、請求項329に記載の方法。
Changing the visual property of the first zoom affordance includes:
resizing the first zoom affordance from a first size to a second size, wherein the second size of the first zoom affordance is the current size of the second zoom affordance and changing the color of the first zoom affordance from a first color to a second color, wherein the second color of the first zoom affordance is different from the second that is different from the current color of the zoom affordance of
330. The method of claim 329, comprising one or more of
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満すことが満たされているとの判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、
前記第1のズームアフォーダンスが第2のそれぞれの基準を満すとの判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第4の表現を表示することをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記一部分の前記第2の表現の表示を維持することと、
を更に含む、請求項328から330のいずれか一項に記載の方法。
performing a second gesture directed at the first zoom affordance while displaying the second representation of the at least a portion of the field of view of the one or more cameras at the second zoom level; to receive;
in response to receiving the second gesture directed at the first zoom affordance;
a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, in accordance with determining that the first zoom affordance satisfies a first respective criterion; and displaying
Upon determining that the first zoom affordance satisfies a second respective criterion,
Ceasing to display the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level;
maintaining display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level;
331. The method of any one of claims 328-330, further comprising
前記第1のジェスチャは、第1のタイプのジェスチャであり、前記方法は、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャは、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、ことと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応じて、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、ことと、
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示している間に、前記ズームレベルを変更するための前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信したことに応じて、
前記ズームレベルを変更するための前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を更に含む、請求項328から331のいずれか一項に記載の方法。
The first gesture is a first type gesture, and the method includes:
receiving a third gesture directed at the first zoom affordance, the third gesture being a second type gesture different from the first type gesture; ,
responsive to receiving the third gesture directed at the first zoom affordance, displaying a control for changing the zoom level of the first currently displayed representation; said control for changing said zoom level of said currently displayed representation of includes a first indication of a current zoom level of said first currently displayed representation;
receiving a fourth gesture directed at the control for changing the zoom level while displaying the control for changing the zoom level of the first currently displayed representation; and
in response to receiving the fourth gesture directed at the control for changing the zoom level;
displaying a second indication of a fifth zoom level on the control for changing the zoom level;
displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level;
332. The method of any one of claims 328-331, further comprising
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションは、前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロール上の選択されたズームレベルに対応する位置に表示される、請求項332に記載の方法。 The first indication of the zoom level of the first currently displayed representation is a selected zoom on the control for changing the zoom level of the first currently displayed representation. 333. The method of claim 332, displayed at locations corresponding to levels. 前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールは、回転可能なユーザインタフェース要素である、請求項332又は333に記載の方法。 334. A method according to claim 332 or 333, wherein said control for changing said zoom level of said first currently displayed representation is a rotatable user interface element. 前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更ためのする前記コントロールの前記表示に置き換えることを含む、請求項332から334のいずれか一項に記載の方法。 Displaying the control for changing the zoom level of the first currently displayed representation causes displaying of the plurality of zoom affordances to the zoom level of the first currently displayed representation. 335. A method according to any one of claims 332 to 334, comprising replacing the representation of the control to change the . 前記第3のジェスチャは、第1の方向の移動を含み、
前記第4のジェスチャは、前記第1の方向とは異なる第2の方向の移動を含む、請求項332から335のいずれか一項に記載の方法。
the third gesture includes movement in a first direction;
336. The method of any one of claims 332-335, wherein said fourth gesture comprises movement in a second direction different from said first direction.
前記ズームレベルを変更するための前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更するための前記コントロールに向けられたジェスチャがないとの判定に従って、前記ズームレベルを変更するための前記コントロールを表示することを停止することと、
を更に含む、請求項332から336のいずれか一項に記載の方法。
detecting liftoff of the fourth gesture after receiving the fourth gesture directed at the control to change the zoom level;
After detecting liftoff of the fourth gesture,
ceasing displaying the control for changing the zoom level upon determining that there has been no gesture directed at the control for changing the zoom level within a predetermined time frame;
337. The method of any one of claims 332-336, further comprising
前記第1の現在表示されている表現の前記ズームレベルを変更するための前記コントロールを表示することは、
調整可能なコントロール上に複数の視覚インジケータを同時に表示することであって、前記複数のズームアフォーダンスに対応する前記複数のズームレベルのそれぞれのズームレベルは、前記複数の視覚インジケータの異なる対応する視覚インジケータによって表される、こと、
を含む、請求項332から337のいずれか一項に記載の方法。
displaying the control for changing the zoom level of the first currently displayed representation;
displaying a plurality of visual indicators simultaneously on an adjustable control, wherein each zoom level of said plurality of zoom levels corresponding to said plurality of zoom affordances is a different corresponding visual indicator of said plurality of visual indicators; that is represented by
338. The method of any one of claims 332-337, comprising
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第1の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成すること、
を更に含む、請求項328から338のいずれか一項に記載の方法。
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed at at least one of the plurality of zoom affordances and is directed at a first portion of the first representation; configuring the electronic device to focus on the position of
339. The method of any one of claims 328-338, further comprising
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記複数のズームアフォーダンスのうちの少なくとも1つに向けられておらず、かつ前記第1の表現の第2の部分に向けられているとの判定に従って、前記第1のジェスチャの位置に焦点を合わせるように前記電子デバイスを構成することをやめること、
を更に含む、請求項328から339のいずれか一項に記載の方法。
In response to receiving the first gesture,
performing the first gesture in accordance with determining that the first gesture is not directed to at least one of the plurality of zoom affordances and is directed to a second portion of the first representation; ceasing to configure the electronic device to focus on the position of
339. The method of any one of claims 328-339, further comprising
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現は、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第3の表現は、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラは、前記第2のカメラとは異なる、請求項328から340のいずれか一項に記載の方法。
said second representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a first camera of said one or more cameras;
said third representation of at least a portion of said field of view of said one or more cameras is a representation of at least a portion of said field of view of a second camera of said one or more cameras;
341. The method of any one of claims 328-340, wherein the first camera is different than the second camera.
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記一部分の前記第2の表現を表示することは、
前記第2のズームレベルが第6のズームレベルであるとの判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるとの判定に従って、前記第2の表現の一部分を前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、請求項328から341のいずれか一項に記載の方法。
displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level;
displaying a portion of the second representation in a first visual appearance in accordance with determining that the second zoom level is a sixth zoom level;
rendering a portion of the second representation a second visual appearance different from the first visual appearance in accordance with determining that the second zoom level is a seventh zoom level different from the sixth zoom level; and display with
342. The method of any one of claims 328-341, comprising
前記複数のズームアフォーダンスは、第3のズームアフォーダンスを含み、
前記方法は、
第2の現在表示されている表現のズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する前記要求を受信したことに応じて、
前記第8のズームレベルが第1のズーム値範囲内にあるとの判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるとの判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるとの判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を更に含む、請求項328から342のいずれか一項に記載の方法。
the plurality of zoom affordances includes a third zoom affordance;
The method includes:
receiving a request to change the zoom level of the second currently displayed representation;
in response to receiving the request to change the zoom level of the second currently displayed representation to an eighth zoom level;
Replacing the display of the first zoom affordance with the display of a fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within the first zoom value range. When,
replacing the display of the second zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a second zoom value range. and
replacing the display of the third zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level upon determining that the eighth zoom level is within a third zoom value range. and
343. The method of any one of claims 328-342, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項328から343のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 328-343. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項328から343のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 328-343.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項328から343のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 328-343;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースであって、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示し、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信し、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
A camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level via the display device, comprising a plurality of zoom affordances; displays a camera user interface including a first zoom affordance and a second zoom affordance;
receiving a first gesture directed at one of the plurality of zoom affordances while displaying the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、複数のズームアフォーダンスを含み、前記複数のズームアフォーダンスは、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、手段と、
前記複数のズームアフォーダンスを表示している間に、前記複数のズームアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応じて、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるとの判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a camera user interface including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, the camera user interface comprising: , a plurality of zoom affordances, said plurality of zoom affordances including a first zoom affordance and a second zoom affordance;
means for receiving, while displaying the plurality of zoom affordances, a first gesture directed at one of the plurality of zoom affordances;
In response to receiving the first gesture,
displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level in accordance with determining that the first gesture is a gesture directed to the first zoom affordance; ,
at a third zoom level different from the first zoom level and the second zoom level, following determining that the first gesture is a gesture directed at the second zoom affordance; displaying a third representation of at least a portion of the field of view of said camera;
means and
An electronic device comprising:
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、ことと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスは、第1のカメラモードの画像キャプチャを調整する設定である、ことと、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止することと、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying a camera user interface via the display device, the camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode; and
ceasing displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; and
A method, including
前記第2の1組のカメラ設定アフォーダンスは、前記第2のカメラモードの画像キャプチャを調整する設定である、請求項350に記載の方法。 351. The method of Claim 350, wherein the second set of camera setting affordances are settings that adjust image capture for the second camera mode. 前記第2の1組のカメラ設定アフォーダンスは、前記第1の1組のカメラ設定アフォーダンスとは異なる、請求項350又は351に記載の方法。 352. The method of claim 350 or 351, wherein the second set of camera setting affordances is different than the first set of camera setting affordances. 前記第1の1組のカメラ設定アフォーダンスは、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、請求項350から352のいずれか一項に記載の方法。 The first set of camera setting affordances is one of a flash setting affordance, an image capture setting affordance, an aspect ratio camera setting affordance, a filter setting camera setting affordance, a high dynamic range imaging camera setting affordance, and a low light camera setting affordance. 353. The method of any one of claims 350-352, comprising one or more. 前記第1のジェスチャを検出することは、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法は、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に前記第1のジェスチャの完了を検出したことに応じて、触知出力を提供することと、
を更に含む、請求項350から353のいずれか一項に記載の方法。
Detecting the first gesture includes detecting a first contact directed at the camera user interface, the method comprising:
detecting completion of the first gesture before detecting lift-off of the first contact while detecting the first gesture;
providing a tactile output in response to detecting completion of the first gesture prior to detecting lift-off of the first contact;
354. The method of any one of claims 350-353, further comprising
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応じて、
前記第2の1組のカメラ設定アフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第3の1組のカメラ設定アフォーダンスを表示することと、
前記第1の複数のカメラモードアフォーダンスは、前記第3のジェスチャが検出されたときに表示されていたとの判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の位置に前記1つ以上のカメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示し、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することであって、前記第2の複数のカメラモードアフォーダンスは、前記第1の複数のカメラモードアフォーダンスとは異なる、ことと、
を更に含む、請求項350から354のいずれか一項に記載の方法。
detecting a third gesture directed at the camera user interface while displaying the camera user interface;
in response to detecting the third gesture directed at the camera user interface;
In accordance with determining that the second set of camera setting affordances were being displayed when the third gesture was detected,
configuring the electronic device to capture media in a third camera mode;
displaying a third set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
According to determining that the first plurality of camera mode affordances were being displayed when the third gesture was detected,
a second plurality indicating different camera operating modes of the one or more cameras in the first position without displaying the second set of camera setting affordances and the third set of camera setting affordances; and configuring the electronic device to capture media in the first camera mode and the third camera mode, the second plurality of camera mode affordances comprising: different from the first plurality of camera mode affordances;
355. The method of any one of claims 350-354, further comprising:
前記第1の位置に前記第3の1組のカメラ設定アフォーダンスを表示することは、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含む、請求項355に記載の方法。 Displaying the third set of camera setting affordances at the first location displays an animation of the third set of camera setting affordances replacing the first set of camera setting affordances. 356. The method of claim 355, comprising: 前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することであって、前記視野の前記第2の部分は、前記1つ以上のカメラの前記視野の前記第1の部分の一部を含まない、こと、
を更に含む、請求項350から356のいずれか一項に記載の方法。
wherein the representation of the field of view of the one or more cameras is a first representation of a first portion of the field of view of the one or more cameras, the method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a second representation of a second portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media via a first type of camera; wherein said second portion of said field of view does not include a portion of said first portion of said field of view of said one or more cameras;
357. The method of any one of claims 350-356, further comprising:
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することであって、前記1つ以上のカメラの前記視野の前記第4の部分は、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、こと、
を更に含む、請求項350から357のいずれか一項に記載の方法。
wherein said representation of said field of view of said one or more cameras is a third representation of a third portion of said field of view of said one or more cameras, said method comprising:
in response to receiving the second gesture directed at the camera user interface;
displaying a fourth representation of a fourth portion of the field of view of the one or more cameras in accordance with determining that the electronic device is configured to capture media using a second type of camera; wherein said fourth portion of said field of view of said one or more cameras includes a portion of said field of view of said one or more cameras that is not in said third portion of said field of view of said one or more cameras. including
358. The method of any one of claims 350-357, further comprising
前記1つ以上のカメラの前記視野の前記表現は、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現は、前記表示デバイス上の第2の位置に表示され、
前記方法は、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているとの判定に従って、
前記表示デバイス上の前記第2の位置から前記表示デバイス上の第3の位置に前記第5の表現を動かすこと、
を更に含む、請求項357又は358に記載の方法。
said representation of said field of view of said one or more cameras is a fifth representation of a fifth portion of said field of view of said one or more cameras;
the fifth representation is displayed at a second location on the display device;
The method includes:
in response to receiving the second gesture directed at the camera user interface;
Following determining that the electronic device is configured to capture media using a third type of camera,
moving the fifth representation from the second position on the display device to a third position on the display device;
359. The method of claim 357 or 358, further comprising
前記第1のカメラモードは、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現は、第1のズームレベルで表示され、
前記方法は、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応じて、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を更に含む、請求項350から359のいずれか一項に記載の方法。
the first camera mode is a portrait mode;
the representation of the field of view of the one or more cameras is displayed at a first zoom level;
The method includes:
while displaying the first plurality of camera mode affordances;
displaying affordances and zoom affordances for controlling lighting effects operation;
receiving a fourth gesture directed at the zoom affordance while displaying the zoom affordance;
displaying a representation of the field of view of the one or more cameras at a second zoom level in response to receiving the fourth gesture directed at the zoom affordance;
359. The method of any one of claims 350-359, further comprising
前記第1の複数のカメラモードアフォーダンスは、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる、第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応じて、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる、第2のカメラモードアフォーダンスと、
を含む、請求項350から360のいずれか一項に記載の方法。
The first plurality of camera mode affordances includes:
a first camera mode affordance that, when selected, causes the electronic device to capture media in the first camera mode in response to a request to capture media;
a second camera mode affordance that, when selected, causes the electronic device to capture media in the second camera mode in response to a request to capture media;
361. The method of any one of claims 350-360, comprising
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスに隣接して表示される、請求項361に記載の方法。 362. The method of Claim 361, wherein while displaying the first plurality of camera mode affordances, the first camera mode affordance is displayed adjacent to the second camera mode affordance. 前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、かつ前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスは、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、請求項361又は362に記載の方法。 Prior to detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances, the first camera mode affordances are selected from the first 363. The method of claim 361 or 362, displayed with an indication that camera mode is active. 前記第1の位置に前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第5のジェスチャを検出したことに応じて、
前記1つ以上のカメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することであって、
前記第3の複数のカメラモードアフォーダンスは、前記第2のカメラモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスは、前記第2のカメラモードがアクティブであるというインジケーションとともに表示される、
ことと、
を更に含む、請求項362又は363に記載の方法。
detecting a fifth gesture directed at the camera user interface while displaying the second set of camera setting affordances at the first location;
in response to detecting the fifth gesture directed at the camera user interface;
displaying a third plurality of camera mode affordances indicative of different camera operating modes of the one or more cameras;
the third plurality of camera mode affordances includes the second camera mode affordance;
the second camera mode affordance is displayed with an indication that the second camera mode is active;
and
364. The method of claim 362 or 363, further comprising
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項350から364のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 350-364. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項350から364のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 350-364.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項350から364のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 350 to 364;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、カメラユーザインタフェースであって、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、カメラユーザインタフェースを表示し、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出し、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスであって、第1のカメラモードの画像キャプチャを調整する設定であり、第1の1組のカメラ設定アフォーダンスを表示し、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止し、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信し、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
Via the display device, a camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
display the camera user interface, including
detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying at the first position a first set of camera setting affordances, the settings for adjusting image capture in a first camera mode, the first set of camera setting affordances;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first location;
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の位置に前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、
を含む、手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応じて、
前記第1の位置に第1の1組のカメラ設定アフォーダンスを表示し、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定であり、
前記第1の位置に前記カメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することを停止する、
手段と、
前記第1の位置に前記第1の1組のカメラ設定アフォーダンスを表示している間に、かつ前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応じて、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成し、
前記第1の位置に前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示することなく、前記第1の位置に第2の1組のカメラ設定アフォーダンスを表示する、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via said display device, a camera user interface, said camera user interface comprising:
a camera display area containing a representation of the field of view of the one or more cameras;
a camera control region including a first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at a first location;
means, including
means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicative of different modes of operation of the one or more cameras;
in response to detecting the first gesture directed at the camera user interface;
displaying a first set of camera setting affordances at the first location, the first set of camera setting affordances being settings for adjusting image capture in a first camera mode;
stopping displaying the first plurality of camera mode affordances indicating different modes of operation of the camera at the first position;
means and
while displaying the first set of camera setting affordances at the first location and while the electronic device is configured to capture media in the first camera mode; means for receiving a second gesture directed at the camera user interface;
in response to receiving the second gesture directed at the camera user interface;
configuring the electronic device to capture media in a second camera mode different from the first camera mode;
displaying a second set of camera setting affordances at the first location without displaying the first plurality of camera mode affordances indicating different modes of operation of the one or more cameras at the first location; do,
means and
An electronic device comprising:
方法であって、
表示デバイスを備える電子デバイスにおいて、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
a method,
In an electronic device equipped with a display device,
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receiving a request to display the representation;
in response to receiving the request to display the representation of the previously captured media item;
Displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content in accordance with determining that automatic media correction criteria are met. When,
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. displaying;
A method, including
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、
前記1つ以上のカメラの前記視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の前記第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現は、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、
を含む、こと、
を更に含む、請求項371に記載の方法。
displaying, via the display device, a camera user interface prior to receiving the request to display the representation of the previously captured media item, the camera user interface comprising:
a first region containing a representation of the first portion of the field of view of the one or more cameras;
A second region containing a representation of the second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras comprises the first a second region visually distinct from said representation of a portion of
including
372. The method of claim 371, further comprising:
自動メディア補正基準が満たされているとの前記判定に従って、自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないとの判定に従って、前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、ことと、
を更に含む、請求項371又は372に記載の方法。
displaying a first auto-adjustment affordance indicating that auto-adjustment was applied to the previously captured media item in accordance with the determination that the automatic media correction criteria are met;
Displaying a second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item following a determination that an automated media correction criterion has not been met; two auto-adjusting affordances are visually distinct from the first auto-adjusting affordance; and
373. The method of claim 371 or 372, further comprising
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項373に記載の方法。
displaying the first auto-adjusting affordance and, via the display device, displaying the representation of the previously captured media item including the combination of the first content and the second content; receiving a first input corresponding to a selection of the first auto-tuning affordance while in;
including the first content and excluding the second content via the display device in response to receiving the first input corresponding to selection of the first auto-adjusting affordance; displaying the representation of the previously captured media item;
374. The method of claim 373, further comprising:
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応じて、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項373に記載の方法。
Displaying the second auto-adjusting affordance and displaying, via the display device, the representation of the previously captured media item including the first content and excluding the second content. while receiving a second input corresponding to the selection of the second auto-tuning affordance;
the previous including the combination of the first content and the second content via the display device in response to receiving the second input corresponding to selection of the second auto-adjusting affordance; displaying said representation of a media item captured in
374. The method of claim 373, further comprising:
前記以前にキャプチャされたメディアアイテムは、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記縁部部分を更に含まない、請求項371から375のいずれか一項に記載の方法。
the previously captured media item is an image;
said representation of said previously captured media item comprising said combination of said first content and said second content includes an edge portion;
376. The representation of the previously captured media item that includes the first content and does not include the second content further excludes the edge portion. The method described in .
前記以前にキャプチャされたメディアアイテムは、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記第1の量の移動とは異なる第2の量の移動を含む、請求項371から376のいずれか一項に記載の方法。
the previously captured media item is a video;
said representation of said previously captured media item including said combination of said first content and said second content includes a first amount of movement;
the representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different than the first amount of movement; 377. The method of any one of claims 371-376.
前記以前にキャプチャされたメディアアイテムは、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現は、前記識別可能なオブジェクトの前記一部分を含まない、請求項371から377のいずれか一項に記載の方法。
the previously captured media item includes an identifiable object;
said representation of said previously captured media item including said combination of said first content and said second content includes a portion of said identifiable object;
378. Any of claims 371-377, wherein the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object. or the method described in paragraph 1.
前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されるときに満たされる第2の基準を含む、請求項371から378のいずれか一項に記載の方法。 The automatic media correction criteria are one or more visions by which the previously captured media items can be corrected using the second content from the second portion of the field of view of the one or more cameras. 379. The method of any one of claims 371-378, including a second criterion that is met when determined to contain an aspect. 前記自動メディア補正基準は、前記以前にキャプチャされたメディアアイテムが表示される前に前記第2の基準が満たされていたときに満たされる第3の基準を含む、請求項379に記載の方法。 380. The method of Claim 379, wherein the automatic media correction criteria include a third criterion met when the second criterion was met before the previously captured media item was displayed. 前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされているとの判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第1の動作を実行させる、第3の自動調整アフォーダンスを表示すること、
を更に含む、請求項371から380のいずれか一項に記載の方法。
the first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with determining that automatic media correction criteria are met; displaying a third auto-adjusting affordance that, when selected, causes the electronic device to perform a first action concurrently with the representation of the previously captured media item comprising a combination of;
381. The method of any one of claims 371-380, further comprising
前記自動メディア補正基準が、自動適用設定が有効化されるときに満たされ、かつ前記自動適用設定が無効化されるときに満たされていない基準を含む、請求項371から381のいずれか一項に記載の方法。 382. Any one of claims 371-381, wherein the automatic media correction criteria include criteria that are met when auto-apply settings are enabled and not met when the auto-apply settings are disabled. The method described in . 前記自動適用設定が、ユーザ構成可能設定である、請求項371から382のいずれか一項に記載の方法。 383. The method of any one of claims 371-382, wherein said automatically applied settings are user configurable settings. 前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
第1の1組の基準が満たされているとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに第2の動作を実行させる、第4の自動調整アフォーダンスを表示すること、
を更に含む、請求項371から383のいずれか一項に記載の方法。
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
Concurrently selecting the representation of the previously captured media item that includes the first content and does not include the second content in accordance with a determination that a first set of criteria is met. displaying a fourth auto-tuning affordance that, when received, causes the electronic device to perform a second action;
384. The method of any one of claims 371-383, further comprising
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、かつ自動メディア補正基準が満たされていないとの判定に従って、
前記第1の1組の基準が満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、請求項371から384のいずれか一項に記載の方法。
in response to receiving the request to display the representation of the previously captured media item and following a determination that automatic media correction criteria have not been met;
concurrently with the representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that the first set of criteria is not met; displaying a non-selectable indicator;
385. The method of any one of claims 371-384, further comprising
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
コンテンツ処理基準が満たされているとの判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないとの判定に従って、前記コンテンツ処理インジケータを表示することをやめることと、
を更に含む、請求項371から385のいずれか一項に記載の方法。
in response to receiving the request to display the representation of the previously captured media item;
displaying a content processing indicator in accordance with determining that the content processing criteria are met;
ceasing to display the content processing indicator in accordance with a determination that the content processing criteria are not met;
386. The method of any one of claims 371-385, further comprising
前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、請求項386に記載の方法。
ceasing display of the content processing indicator while displaying the content processing indicator and in accordance with a determination that the content processing criteria are no longer met;
387. The method of claim 386, further comprising:
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、請求項386に記載の方法。
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; and according to a determination that the content processing criteria are no longer met, rendering the representation of the previously captured media item that includes the first content and does not include the second content to the first media item; replacing with the representation of the previously captured media item containing a combination of the content of and the second content;
387. The method of claim 386, further comprising:
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、かつ前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を表示している間に、かつ前記コンテンツ処理基準がもはや満たされていないとの判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、請求項386に記載の方法。
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator; displaying a second representation of the previously captured media item that includes the first content and does not include the second content;
while displaying the second representation of the previously captured media item that includes the first content and does not include the second content, and the content processing criteria are no longer met; rendering the second representation of the previously captured media item, including the first content and excluding the second content, to the first content and the second content. replacing with a second representation of the previously captured media item that includes a combination of content;
387. The method of claim 386, further comprising:
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、請求項371から389のいずれか一項に記載の方法。
including the first content and including the second content while displaying the representation of the previously captured media item including a combination of the first content and the second content; displaying an animation of the representation of the previously captured media item including a combination of the first content and the second content transitioning to the representation of the previously captured media item;
389. The method of any one of claims 371-389, further comprising
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に遷移する、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示すること、
を更に含む、請求項371から390のいずれか一項に記載の方法。
combining the first content and the second content while displaying the representation of the previously captured media item that includes the first content and does not include the second content; displaying an animation of the representation of the previously captured media item that includes the first content and does not include the second content, transitioning to the representation of the previously captured media item that includes to do
391. The method of any one of claims 371-390, further comprising
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、メディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションの表示をやめることと、
を更に含む、請求項371から391のいずれか一項に記載の方法。
A media item that includes third content from the first portion of the field of view of one or more cameras and does not include fourth content from the second portion of the field of view of the one or more cameras. receiving a request to display a representation of
including third content from the first portion of the field of view of the one or more cameras and excluding fourth content from the second portion of the field of view of the one or more cameras; Additional media content outside the first portion of the field of view of the one or more cameras is available in response to receiving the request to display the representation of the previously captured media item. ceasing to display the indication that there is
392. The method of any one of claims 371-391, further comprising
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項371から392のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising: 393. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of Clauses 371-392. 電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項371から392のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein said one or more programs comprise instructions for performing the method of any one of claims 371-392.
電子デバイスであって、
表示デバイスと、請求項371から392のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device and means for performing the method of any one of claims 371-392;
An electronic device comprising:
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs comprising:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信し、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; receives a request to display a representation,
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応じて、
自動メディア補正基準が満たされているとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示し、
自動メディア補正基準が満たされていないとの判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない、前記以前にキャプチャされたメディアアイテムの表現を表示する、
手段と、を備える、電子デバイス。
an electronic device,
a display device;
of a previously captured media item including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras; means for receiving a request to display a representation;
in response to receiving the request to display the representation of the previously captured media item;
displaying, via the display device, a representation of the previously captured media item including a combination of the first content and the second content, in accordance with a determination that automated media correction criteria are met;
rendering, via the display device, a representation of the previously captured media item that includes the first content and does not include the second content, in accordance with a determination that automatic media correction criteria are not met. indicate,
An electronic device comprising means.
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの位置に表示される、請求項219から235のいずれか一項に記載の方法。 236. The adjustable controls for selecting time-based representations of the first visual media corresponding to respective times are displayed at respective locations on the display device. The method described in . 方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスにおいて、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示することと、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめることと、
を含む、方法。
a method,
In an electronic device having a display device and one or more cameras,
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A method, including
前記メディアキャプチャユーザインタフェースは、メディアキャプチャアフォーダンスを含み、
メディアをキャプチャする前記要求を受信することは、前記メディアキャプチャアフォーダンスの選択を検出することを含む、請求項400に記載の方法。
the media capture user interface includes a media capture affordance;
401. The method of claim 400, wherein receiving the request to capture media includes detecting selection of the media capture affordance.
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の1つ以上の差の前記視覚インジケーションを表示することは、
前記電子デバイスの前記ポーズが第1の様式で変化したとの判定に従って、外観の第1の変化を伴う前記視覚インジケーションを表示することと、
前記電子デバイスの前記ポーズが前記第1の様式とは異なる第2の様式で変化したとの判定に従って、外観の第2の変化を伴う前記視覚インジケーションを表示することと、
を含む、請求項400又は401に記載の方法。
displaying the visual indication of one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device;
displaying the visual indication with a first change in appearance in accordance with determining that the pose of the electronic device has changed in a first manner;
displaying the visual indication with a second change in appearance following determining that the pose of the electronic device has changed in a second manner different from the first manner;
402. The method of claim 400 or 401, comprising
前記視覚インジケーションを表示することは、同時に
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第1の差を示す視覚特性を有する前記視覚インジケーションを表示することと、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の第2の差を示す視覚特性を有する前記視覚インジケーションを表示することであって、前記第1の差及び第2の差は、異なる種類の差である、ことと、
を含む、請求項400から402のいずれか一項に記載の方法。
displaying the visual indication has a visual characteristic indicative of a first difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device; displaying a visual indication;
displaying the visual indication having a visual characteristic that indicates a second difference between the pose of the electronic device when media capture was initiated and the current pose of the electronic device; the first difference and the second difference are different types of difference;
403. The method of any one of claims 400-402, comprising
前記視覚インジケーションは、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分と、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分と、を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、メディアのキャプチャが開始された後の前記電子デバイスの前記ポーズの変化に応じて変化する外観で前記視覚インジケーションの前記第1の部分及び第2の部分のうちの少なくとも1つを表示することを含む、請求項400から403のいずれか一項に記載の方法。
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture was initiated and a first portion of the visual indication representing the current pose of the electronic device. 2, and
In response to detecting movement of the electronic device at the first time after initiating media capture, displaying the visual indication may include moving the electronic device after initiating media capture. 404. Any one of claims 400-403, comprising displaying at least one of said first and second portions of said visual indication with an appearance that changes in response to a change in said pose. described method.
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの回転量に基づいて判定される第1の回転量、回転された前記視覚インジケーションの前記一部分を表示することを含む、請求項400から404のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of rotation of the electronic device. 405. The method of any one of claims 400-404, comprising displaying a rotation amount of one, the portion of the visual indication rotated.
前記第1の回転量、回転された前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第2の時間における前記電子デバイスの回転移動を検出することと、
メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスの回転移動を検出したことに応じて、前記検出された回転移動の量に基づいて判定される第2の回転量、前記視覚インジケーションの前記一部分を回転させることであって、前記第2の回転量は、前記第1の回転量とは異なる、ことと、
を更に含む、請求項405に記載の方法。
detecting rotational movement of the electronic device at a second time after initiating media capture while displaying the portion of the visual indication rotated by the first amount;
responsive to detecting rotational movement of the electronic device at the second time after initiating media capture, a second amount of rotation determined based on the amount of rotational movement detected; rotating the portion of the indication, wherein the second amount of rotation is different than the first amount of rotation;
406. The method of claim 405, further comprising:
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの移動量に基づいて判定される第1のスキュー量を有する前記視覚インジケーションの前記一部分を表示することを含む、請求項400から406のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on an amount of movement of the electronic device. 407. The method of any one of claims 400-406, comprising displaying said portion of said visual indication having a skew amount of one.
前記第1のスキュー量、歪められた前記一部分を表示している間に、メディアのキャプチャを開始した後の第3の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第3の時間における前記電子デバイスの移動を検出したことに応じて、第2のスキュー量を有する前記一部分を表示することであって、前記第2のスキュー量は、前記第1のスキュー量とは異なる、ことと、
を更に含む、請求項407に記載の方法。
detecting movement of the electronic device at a third time after initiating media capture while displaying the portion distorted by the first skew amount;
displaying the portion having a second skew amount in response to detecting movement of the electronic device at the third time after starting media capture, wherein the second skew amount. is different from the first skew amount, and
408. The method of claim 407, further comprising:
前記視覚インジケーションは、前記視覚インジケーションの一部分を含み、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、前記視覚インジケーションを表示することは、前記電子デバイスの位置に基づいて判定される第1の位置に前記視覚インジケーションの前記一部分を表示することを含む、請求項400から408のいずれか一項に記載の方法。
the visual indication includes a portion of the visual indication;
Displaying the visual indication in response to detecting movement of the electronic device at the first time after initiating media capture is determined based on a position of the electronic device. 409. The method of any one of claims 400-408, comprising displaying said portion of said visual indication at a position of .
前記第1の位置に前記視覚インジケーションの前記一部分を表示している間に、メディアのキャプチャを開始した後の第4の時間における前記電子デバイスの平行移動を検出することと、
メディアのキャプチャを開始した後の前記第4の時間における前記電子デバイスの平行移動を検出したことに応じて、前記電子の平行移動に基づいて判定される第2の位置に前記視覚インジケーションの前記一部分を表示することであって、前記第2の位置は、前記第1の位置とは異なる、ことと、
を更に含む、請求項409に記載の方法。
detecting translation of the electronic device at a fourth time after initiating media capture while displaying the portion of the visual indication at the first location;
responsive to detecting translation of the electronic device at the fourth time after initiating media capture, moving the visual indication to a second position determined based on translation of the electronic device; displaying a portion, wherein the second position is different than the first position;
410. The method of claim 409, further comprising:
前記視覚インジケーションは、前記1つ以上の差の大きさを示す、請求項400から410のいずれか一項に記載の方法。 411. The method of any one of claims 400-410, wherein said visual indication indicates the magnitude of said one or more differences. 前記電子デバイスの前記ポーズがメディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズとは異なる第1の時間において、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の第1の位置に表示された、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す前記視覚インジケーションの第1の部分を含み、
前記視覚インジケーションは、前記メディアキャプチャユーザインタフェース上の前記第1の位置とは異なる前記メディアキャプチャユーザインタフェース上の第2の位置に、前記電子デバイスの前記現在のポーズを表す前記視覚インジケーションの第2の部分を含む、請求項400から411のいずれか一項に記載の方法。
at a first time the pose of the electronic device is different from the pose of the electronic device when media capture is initiated;
The visual indication includes a first portion of the visual indication representing the pose of the electronic device when media capture is initiated, displayed at a first location on the media capture user interface. ,
The visual indication is at a second location on the media capture user interface that is different than the first location on the media capture user interface, and a second location of the visual indication representing the current pose of the electronic device. 412. The method of any one of claims 400-411, comprising two portions.
前記第1の位置に前記視覚インジケーションの前記第1の部分を表示し、前記第2の位置に前記視覚インジケーションの前記第2の部分を表示した後に、かつ前記メディアをキャプチャしている間に、メディアのキャプチャを開始した後の第5の時間における前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第5の時間における前記電子デバイスの移動を検出したことに応じて、
メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差が1つ以上の閾値差量未満であるとの判定に従って、前記メディアユーザインタフェース上の前記第2の位置に前記視覚インジケーションの前記第1の部分を表示することであって、前記視覚インジケーションの前記第1の部分及び前記視覚インジケーションの前記第2の部分は、互いに重なり合う、ことと、
を更に含む、請求項412に記載の方法。
after displaying the first portion of the visual indication at the first location and displaying the second portion of the visual indication at the second location and while capturing the media. , detecting movement of the electronic device at a fifth time after initiating media capture;
In response to detecting movement of the electronic device at the fifth time after beginning media capture,
according to determining that the one or more differences between the pose of the electronic device when media capture was initiated and the current pose of the electronic device are less than one or more threshold difference amounts; displaying the first portion of the visual indication at the second location on the media user interface, wherein the first portion of the visual indication and the second portion of the visual indication; that the parts overlap each other;
413. The method of claim 412, further comprising:
前記視覚インジケーションを表示している間に、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化せず、
前記表示された視覚インジケーションの一部分は、検出されている前記電子デバイスの移動に応じて変化する、請求項400から413のいずれか一項に記載の方法。
While displaying said visual indication,
a portion of the displayed visual indication does not change in response to movement of the electronic device being detected;
414. The method of any one of claims 400-413, wherein the portion of the displayed visual indication changes in response to movement of the electronic device being detected.
メディアのキャプチャを開始した後の第7の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回らないとの判定に従って、前記視覚インジケーションの表示を停止することと、
を更に含む、請求項400から414のいずれか一項に記載の方法。
detecting movement of the electronic device at a seventh time after beginning media capture;
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
ceasing displaying the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device does not exceed a second movement threshold;
415. The method of any one of claims 400-414, further comprising:
メディアのキャプチャを開始した後の前記第7の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスのメディアのキャプチャを開始した後の前記第7の時間における前記検出された移動が第2の移動閾値を上回るとの判定に従って、前記視覚インジケーションの表示を継続すること、
を更に含む、請求項415に記載の方法。
In response to detecting movement of the electronic device at the seventh time after beginning media capture,
continuing to display the visual indication in accordance with determining that the detected movement at the seventh time after initiating media capture of the electronic device exceeds a second movement threshold;
416. The method of claim 415, further comprising:
前記1組のガイダンス基準は、低光モードがアクティブであるときに満たされる基準を含む、請求項400から416のいずれか一項に記載の方法。 417. The method of any one of claims 400-416, wherein the set of guidance criteria includes criteria met when a low light mode is active. 前記1組のガイダンス基準は、閾値持続時間を上回るキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されているときに満たされる基準を含む、請求項400から417のいずれか一項に記載の方法。 418. The set of guidance criteria includes criteria met when the electronic device is configured to capture multiple images over a capture duration greater than a threshold duration. The method described in section. 前記視覚インジケーションは、前記1つ以上のカメラの前記視野の前記表現上に表示される、請求項400から418のいずれか一項に記載の方法。 419. The method of any one of claims 400-418, wherein the visual indication is displayed on the representation of the field of view of the one or more cameras. 前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第8の時間において、前記電子デバイスの移動を検出することと、
メディアのキャプチャを開始した後の前記第8の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が第2の移動閾値を上回るとの判定に従って、メディアのキャプチャを停止することと、
を更に含む、請求項400から419のいずれか一項に記載の方法。
detecting movement of the electronic device at an eighth time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the eighth time after beginning media capture,
stopping media capture in accordance with determining that the detected movement of the electronic device exceeds a second movement threshold;
420. The method of any one of claims 400-419, further comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項400から420のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more 421. A non-transitory computer-readable storage medium comprising instructions for performing the method of any one of claims 400-420. 電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項400から420のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
, wherein the one or more programs comprise instructions for performing the method of any one of claims 400-420.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、請求項400から420のいずれか一項に記載の方法を実行する手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras and means for performing the method of any one of claims 400 to 420;
An electronic device comprising:
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more The program of
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
A non-transitory computer-readable storage medium containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示し、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信し、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始し、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出し、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
命令を含む、電子デバイス。
an electronic device,
a display device;
one or more cameras;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
receiving, via the display device, a request to capture media while displaying the media capture user interface;
initiating media capture via the one or more cameras in response to receiving the request to capture media;
detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
An electronic device containing instructions.
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信する手段と、
メディアをキャプチャする前記要求を受信したことに応じて、前記1つ以上のカメラを介して、メディアのキャプチャを開始する手段と、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、前記電子デバイスの移動を検出する手段と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの移動を検出したことに応じて、
前記電子デバイスの前記検出された移動が移動閾値を上回るときに満たされる基準を含む、1組のガイダンス基準が満たされているとの判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスのポーズと前記電子デバイスの現在のポーズとの間の1つ以上の差の視覚インジケーションを表示し、
前記1組のガイダンス基準が満たされていない前記検出された移動との判定に従って、前記表示デバイスを介して、メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと前記電子デバイスの前記現在のポーズとの間の前記1つ以上の差の前記視覚インジケーションの表示をやめる、
手段と、
を備える、電子デバイス。
an electronic device,
a display device;
one or more cameras;
means for displaying, via the display device, a media capture user interface including a representation of the field of view of the one or more cameras;
means for receiving, via the display device, a request to capture media while displaying the media capture user interface;
means for initiating media capture via the one or more cameras in response to receiving the request to capture media;
means for detecting movement of the electronic device at a first time after beginning media capture via the one or more cameras;
In response to detecting movement of the electronic device at the first time after beginning media capture,
Media capture is initiated via the display device following a determination that a set of guidance criteria are met, including criteria met when the detected movement of the electronic device exceeds a movement threshold. displaying a visual indication of one or more differences between the pose of the electronic device when the electronic device was placed and the current pose of the electronic device;
the pose of the electronic device when media capture is initiated and the current state of the electronic device, via the display device, according to a determination that the set of guidance criteria is not met with the detected movement; ceasing to display the visual indication of the one or more differences between the poses of
means and
An electronic device comprising:
方法であって、
1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラを有するコンピュータシステムにおいて、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、ことと、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出することと、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化することと、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を含む、方法。
a method,
In a computer system having one or more cameras in communication with one or more display devices and one or more input devices,
displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode in accordance with determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A method, including
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、無効化され、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を上回るとの判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、請求項427に記載の方法。
the camera user interface includes selectable user interface objects for capturing media;
Disabling the selectable user interface object for capturing media while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold. is,
While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is above the threshold, the selectable user interface object for capturing media is enabled. 428. The method of claim 427, wherein:
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが無効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、第1の視覚外観で表示され、
メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトが有効化されているとの前記判定に従って、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、前記第1の視覚外観とは異なる第2の視覚外観で表示される、請求項428に記載の方法。
according to the determining that the selectable user interface object for capturing media is disabled, the selectable user interface object for capturing media is displayed in a first visual appearance;
According to the determining that the selectable user interface object for capturing media is enabled, the selectable user interface object for capturing media has a second visual appearance different from the first visual appearance. 429. The method of claim 428, displayed in a visual appearance.
前記カメラユーザインタフェースは、メディアをキャプチャするための選択可能ユーザインタフェースオブジェクトを含み、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記利用可能な光が前記閾値を上回るかどうかに関係なく、メディアをキャプチャするための前記選択可能ユーザインタフェースオブジェクトは、有効化される、請求項427から429のいずれか一項に記載の方法。
the camera user interface includes selectable user interface objects for capturing media;
Regardless of whether the available light exceeds the threshold while the camera preview is displayed at the second zoom level, the selectable user interface object for capturing media is enabled. 430. The method of any one of claims 427-429, wherein
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを切り替えるためのガイダンスを表示すること、
を更に含む、請求項427から430のいずれか一項に記載の方法。
displaying guidance to switch the zoom level while the camera preview is displayed at the first zoom level and in accordance with a determination that the available light is below the threshold;
431. The method of any one of claims 427-430, further comprising
前記カメラプレビューが前記第2のズームレベルで表示されている間に、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記ズームレベルを切り替えるためのガイダンスの表示をやめること、
を更に含む、請求項427から431のいずれか一項に記載の方法。
suppressing display of guidance to switch between zoom levels while the camera preview is displayed at the second zoom level, regardless of whether the amount of available light exceeds the threshold;
432. The method of any one of claims 427-431, further comprising
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、フラッシュモードを有効化するためのガイダンスを表示すること、
を更に含む、請求項427から432のいずれか一項に記載の方法。
displaying guidance to enable flash mode while the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold;
433. The method of any one of claims 427-432, further comprising
前記第1のズームレベルは、前記第2のズームレベルよりも高い、請求項427から433のいずれか一項に記載の方法。 434. The method of any one of claims 427-433, wherein the first zoom level is higher than the second zoom level. 前記コンピュータシステムは、1つ以上の深度センサを含み、
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、第1の精度での前記第1のズームレベルにおける前記1つ以上のカメラの視野に関する深度情報の判定を有効化し、
前記カメラプレビューが前記第2のズームレベルで表示されている間に、かつ前記利用可能な光が閾値を下回るとの判定に従って、前記1つ以上の深度センサは、前記第1の精度よりも高い第2の精度での前記第2のズームレベルにおける前記1つ以上のカメラの前記視野に関する深度情報の前記判定を有効化する、請求項427から434のいずれか一項に記載の方法。
the computer system includes one or more depth sensors;
While the camera preview is being displayed at the first zoom level and in accordance with determining that the available light is below a threshold, the one or more depth sensors are adjusted to the first depth at a first accuracy. enabling determination of depth information for the field of view of the one or more cameras at one zoom level;
While the camera preview is being displayed at the second zoom level and upon determining that the available light is below a threshold, the one or more depth sensors are greater than the first accuracy. 435. The method of any one of claims 427 to 434, facilitating the determination of depth information for the field of view of the one or more cameras at the second zoom level with a second precision.
前記カメラプレビューが前記第1のズームレベルで表示されている間に、かつ前記利用可能な光が前記閾値を下回るとの判定に従って、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトは、低光キャプチャモードに対応するインジケーションを含む、請求項427から435のいずれか一項に記載の方法。 While the camera preview is displayed at the first zoom level and in accordance with determining that the available light is below the threshold, the selectable user interface object for changing the zoom level comprises: 436. The method of any one of claims 427-435, comprising an indication corresponding to a low light capture mode. 前記カメラプレビューが前記第2のズームレベルで表示されている間に、前記ズームレベルを変更するための前記選択可能ユーザインタフェースオブジェクトが、利用可能な光量が前記閾値を上回るかどうかに関係なく、前記低光キャプチャモードに対応するインジケーションを含まない、請求項427から436のいずれか一項に記載の方法。 While the camera preview is displayed at the second zoom level, the selectable user interface object for changing the zoom level is selected regardless of whether the amount of available light exceeds the threshold. 437. The method of any one of claims 427-436, comprising no indication corresponding to low light capture mode. 低光キャプチャモードが有効化されている間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応じて、キャプチャ持続時間にわたる複数の画像のキャプチャを開始することと、
前記キャプチャ持続時間にわたる前記複数の画像のキャプチャを開始した後に、前記複数の画像の少なくとも一部のコンテンツを含む合成画像を生成することであって、前記合成画像は、前記複数の画像のうちの1つ以上よりも視覚的に明るい、ことと、
を更に含む、請求項427から437のいずれか一項に記載の方法。
receiving a request to capture media while the low light capture mode is enabled;
initiating capture of multiple images for a capture duration in response to receiving the request to capture media;
After initiating capture of the plurality of images for the capture duration, generating a composite image including content of at least a portion of the plurality of images, the composite image being one of the plurality of images. being visually brighter than one or more;
438. The method of any one of claims 427-437, further comprising
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、請求項427から438のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one Non-transitory computer readable storage in communication with any of the above display devices and one or more input devices, the one or more programs comprising instructions for performing the method of any one of claims 427-438 medium. コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、請求項427から438のいずれか一項に記載の方法を実行する命令を含む、
コンピュータシステム。
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise instructions to perform the method of any one of claims 427-438,
computer system.
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、請求項427から438のいずれか一項に記載の方法を実行する手段と、
を備える、コンピュータシステム。
a computer system,
439. One or more cameras, wherein the computer system communicates with one or more display devices and one or more input devices; and one or more cameras. means for performing the method of
A computer system comprising:
1つ以上のカメラを有するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信し、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing one or more programs configured to be executed by one or more processors of a computer system having one or more cameras, said computer system comprising one in communication with one or more display devices and one or more input devices, the one or more programs comprising:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A non-transitory computer-readable storage medium containing instructions.
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備え、前記1つ以上のプログラムは、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースであって、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、カメラユーザインタフェースを表示し、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出し、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更し、低光キャプチャモードを有効化し、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更する、
命令を含む、
コンピュータシステム。
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
one or more processors;
a memory storing one or more programs configured to be executed by the one or more processors;
wherein the one or more programs comprise:
displaying a camera user interface having a camera preview for capturing media at a first zoom level, the camera user interface including a selectable user interface object for changing the zoom level;
detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
changing the zoom level to a second zoom level and enabling a low light capture mode upon determining that available light is below a threshold;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
including instructions,
computer system.
コンピュータシステムであって、
1つ以上のカメラであって、前記コンピュータシステムは、1つ以上の表示デバイス及び1つ以上の入力デバイスと通信する、1つ以上のカメラと、
第1のズームレベルでメディアをキャプチャするためのカメラプレビューを有するカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースは、前記ズームレベルを変更するための選択可能ユーザインタフェースオブジェクトを含む、手段と、
前記カメラユーザインタフェースを表示している間に、前記選択可能ユーザインタフェースオブジェクトの選択に対応する入力を検出する手段と、
前記選択可能ユーザインタフェースオブジェクトの選択に対応する前記入力を検出したことに応じて、
利用可能な光が閾値を下回るとの判定に従って、前記ズームレベルを第2のズームレベルに変更する手段と、低光キャプチャモードを有効化する手段と、
前記利用可能な光が前記閾値を上回るとの判定に従って、前記低光キャプチャモードを有効化することなく、前記ズームレベルを変更することと、
を備える、コンピュータシステム。
a computer system,
one or more cameras, the computer system communicating with one or more display devices and one or more input devices;
Means for displaying a camera user interface having a camera preview for capturing media at a first zoom level, said camera user interface including a selectable user interface object for changing said zoom level. When,
means for detecting input corresponding to selection of the selectable user interface object while displaying the camera user interface;
in response to detecting the input corresponding to selection of the selectable user interface object;
means for changing the zoom level to a second zoom level upon determining that available light is below a threshold; means for enabling a low light capture mode;
changing the zoom level without enabling the low light capture mode according to determining that the available light is above the threshold;
A computer system comprising:
JP2022145387A 2019-05-06 2022-09-13 User interface for capturing and managing visual media Active JP7467553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024060293A JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Applications Claiming Priority (38)

Application Number Priority Date Filing Date Title
US201962844110P 2019-05-06 2019-05-06
US62/844,110 2019-05-06
US201962856036P 2019-06-01 2019-06-01
US62/856,036 2019-06-01
US201962897968P 2019-09-09 2019-09-09
US62/897,968 2019-09-09
US16/582,595 2019-09-25
US16/583,020 US10645294B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
US16/583,020 2019-09-25
US16/582,595 US10674072B1 (en) 2019-05-06 2019-09-25 User interfaces for capturing and managing visual media
DKPA201970603 2019-09-26
US16/584,100 US10735643B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970595 2019-09-26
DKPA201970600 2019-09-26
DKPA201970593 2019-09-26
DKPA201970593A DK180685B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
US16/584,044 2019-09-26
DKPA201970601A DK180452B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970592 2019-09-26
DKPA201970603A DK180679B1 (en) 2019-05-06 2019-09-26 USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
DKPA201970600 2019-09-26
US16/584,044 US10735642B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970592A DK201970592A1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
DKPA201970595 2019-09-26
US16/584,693 US10791273B1 (en) 2019-05-06 2019-09-26 User interfaces for capturing and managing visual media
US16/584,100 2019-09-26
DKPA201970601 2019-09-26
US16/584,693 2019-09-26
US16/586,344 2019-09-27
US16/586,314 2019-09-27
DKPA201970605 2019-09-27
US16/586,314 US10681282B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
US16/586,344 US10652470B1 (en) 2019-05-06 2019-09-27 User interfaces for capturing and managing visual media
DKPA201970605 2019-09-27
US202063020462P 2020-05-05 2020-05-05
US63/020,462 2020-05-05
PCT/US2020/031643 WO2020227386A2 (en) 2019-05-06 2020-05-06 User interfaces for capturing and managing visual media
JP2021565919A JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021565919A Division JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024060293A Division JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Publications (2)

Publication Number Publication Date
JP2022188060A true JP2022188060A (en) 2022-12-20
JP7467553B2 JP7467553B2 (en) 2024-04-15

Family

ID=74688824

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2020184471A Active JP6924319B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media
JP2022145387A Active JP7467553B2 (en) 2019-05-06 2022-09-13 User interface for capturing and managing visual media
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Family Applications Before (5)

Application Number Title Priority Date Filing Date
JP2020070418A Active JP6854049B2 (en) 2019-05-06 2020-04-09 User interface for capturing and managing visual media
JP2021565919A Active JP7171947B2 (en) 2019-05-06 2020-05-06 User interface for capturing and managing visual media
JP2020184470A Active JP6924886B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2020184471A Active JP6924319B2 (en) 2019-05-06 2020-11-04 User interface for capturing and managing visual media
JP2021051385A Active JP6929478B2 (en) 2019-05-06 2021-03-25 User interface for capturing and managing visual media

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024060293A Pending JP2024105236A (en) 2019-05-06 2024-04-03 User interface for capturing and managing visual media

Country Status (5)

Country Link
EP (1) EP3966676A2 (en)
JP (7) JP6854049B2 (en)
KR (4) KR20230015526A (en)
CN (3) CN112887586B (en)
AU (4) AU2022200966B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117015976A (en) * 2021-03-26 2023-11-07 索尼集团公司 Imaging apparatus, imaging apparatus control method, and program
CN115131222A (en) * 2021-03-29 2022-09-30 华为技术有限公司 Image processing method and related equipment
US20240314426A1 (en) * 2021-12-10 2024-09-19 Petnow Inc. Electronic apparatus for obtaining biometric information of companion animal, and operation method thereof
KR102623605B1 (en) * 2021-12-10 2024-01-11 주식회사 펫나우 Electornic device for acquiring biometric information of and operating method thereof
CN116437193A (en) * 2021-12-31 2023-07-14 荣耀终端有限公司 Electronic equipment control method and electronic equipment
CN114615480B (en) * 2022-03-11 2024-07-02 峰米(重庆)创新科技有限公司 Projection screen adjustment method, apparatus, device, storage medium, and program product
CN116939354A (en) * 2022-03-30 2023-10-24 北京字跳网络技术有限公司 Camera function page switching method and device, electronic equipment and storage medium
CN115100839B (en) * 2022-07-27 2022-11-01 苏州琅日晴传媒科技有限公司 Monitoring video measured data analysis safety early warning system
CN117768772A (en) * 2022-09-16 2024-03-26 荣耀终端有限公司 Interaction method and device of camera application interface
CN115470153B (en) * 2022-11-14 2023-03-24 成都安易迅科技有限公司 Method, system and equipment for evaluating stability fluency of UI (user interface) of intelligent terminal system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332809A (en) * 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus
JP2009246468A (en) * 2008-03-28 2009-10-22 Fujifilm Corp Photographing device and control method of photographing device
JP2010211166A (en) * 2009-02-13 2010-09-24 Fujitsu Ltd Image pickup apparatus, portable terminal device, and focusing mechanism control method
US20120162455A1 (en) * 2010-12-23 2012-06-28 Samsung Electronics Co., Ltd. Digital image processing apparatus including handshake correction module and methods of controlling the digital image processing apparatus
WO2017051605A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Image capturing system and image capture control method

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557358A (en) * 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
JP4342926B2 (en) * 2003-12-24 2009-10-14 三菱電機株式会社 Image input method and image input apparatus
JP4446787B2 (en) 2004-04-21 2010-04-07 富士フイルム株式会社 Imaging apparatus and display control method
JP4483841B2 (en) * 2006-09-06 2010-06-16 カシオ計算機株式会社 Imaging device
JP2008116823A (en) 2006-11-07 2008-05-22 Nikon Corp Camera
JP5039786B2 (en) 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
JP4980982B2 (en) 2008-05-09 2012-07-18 富士フイルム株式会社 Imaging apparatus, imaging method, focus control method, and program
JP4870218B2 (en) * 2010-02-26 2012-02-08 オリンパス株式会社 Imaging device
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
KR101700363B1 (en) * 2010-09-08 2017-01-26 삼성전자주식회사 Digital photographing apparatus and method for controlling the same
KR101674959B1 (en) 2010-11-02 2016-11-10 엘지전자 주식회사 Mobile terminal and Method for controlling photographing image thereof
JP5717453B2 (en) 2011-01-14 2015-05-13 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR101984921B1 (en) * 2012-10-18 2019-05-31 엘지전자 주식회사 Method for operating a Mobile Terminal
US9264630B2 (en) * 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
JP6034740B2 (en) * 2013-04-18 2016-11-30 オリンパス株式会社 Imaging apparatus and imaging method
KR20150014290A (en) * 2013-07-29 2015-02-06 엘지전자 주식회사 Image display device and operation method of the image display device
US9712756B2 (en) 2013-08-21 2017-07-18 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP6234151B2 (en) * 2013-10-09 2017-11-22 キヤノン株式会社 Imaging device
CN105829945B (en) * 2013-10-18 2019-04-09 光实验室股份有限公司 For implement and/or using camera device method and apparatus
US10074158B2 (en) * 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
KR102145542B1 (en) * 2014-08-14 2020-08-18 삼성전자주식회사 Image photographing apparatus, image photographing system for photographing using a plurality of image photographing apparatuses and methods for photographing image thereof
JP3194297U (en) * 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. Motion sensing control device for automobile and industrial use
JP2016066978A (en) * 2014-09-26 2016-04-28 キヤノンマーケティングジャパン株式会社 Imaging device, and control method and program for the same
US9712751B2 (en) * 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
US9979890B2 (en) * 2015-04-23 2018-05-22 Apple Inc. Digital viewfinder user interface for multiple cameras
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
JP6546474B2 (en) * 2015-07-31 2019-07-17 キヤノン株式会社 Image pickup apparatus and control method thereof
US10334154B2 (en) 2015-08-31 2019-06-25 Snap Inc. Automated adjustment of digital image capture parameters
KR20170123125A (en) * 2016-04-28 2017-11-07 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9854156B1 (en) * 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
KR102257353B1 (en) * 2016-09-23 2021-06-01 애플 인크. Image data for enhanced user interactions
US10432874B2 (en) * 2016-11-01 2019-10-01 Snap Inc. Systems and methods for fast video capture and sensor adjustment
KR20180095331A (en) * 2017-02-17 2018-08-27 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN108391053A (en) * 2018-03-16 2018-08-10 维沃移动通信有限公司 A kind of filming control method and terminal
CN108668083B (en) * 2018-07-24 2020-09-01 维沃移动通信有限公司 Photographing method and terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332809A (en) * 2005-05-23 2006-12-07 Fujifilm Holdings Corp Imaging apparatus
JP2009246468A (en) * 2008-03-28 2009-10-22 Fujifilm Corp Photographing device and control method of photographing device
JP2010211166A (en) * 2009-02-13 2010-09-24 Fujitsu Ltd Image pickup apparatus, portable terminal device, and focusing mechanism control method
US20120162455A1 (en) * 2010-12-23 2012-06-28 Samsung Electronics Co., Ltd. Digital image processing apparatus including handshake correction module and methods of controlling the digital image processing apparatus
WO2017051605A1 (en) * 2015-09-25 2017-03-30 富士フイルム株式会社 Image capturing system and image capture control method

Also Published As

Publication number Publication date
JP2022528011A (en) 2022-06-07
JP2024105236A (en) 2024-08-06
JP6924319B2 (en) 2021-08-25
JP6854049B2 (en) 2021-04-07
JP6924886B2 (en) 2021-08-25
KR20230015526A (en) 2023-01-31
KR102368385B1 (en) 2022-02-25
JP2021108463A (en) 2021-07-29
AU2023282230A1 (en) 2024-01-18
CN113811855A (en) 2021-12-17
JP2021051751A (en) 2021-04-01
KR20210145278A (en) 2021-12-01
JP2021040300A (en) 2021-03-11
KR102492067B1 (en) 2023-01-26
JP6929478B2 (en) 2021-09-01
CN112887586A (en) 2021-06-01
CN112887586B (en) 2022-05-10
JP7467553B2 (en) 2024-04-15
AU2022200966A1 (en) 2022-03-03
EP3966676A2 (en) 2022-03-16
AU2022200966B2 (en) 2022-03-10
JP7171947B2 (en) 2022-11-15
AU2022202377A1 (en) 2022-05-05
KR102419105B1 (en) 2022-07-12
KR20210020987A (en) 2021-02-24
CN115658198A (en) 2023-01-31
JP2021051752A (en) 2021-04-01
AU2022221466B2 (en) 2023-09-14
AU2022202377B2 (en) 2022-05-26
KR20220102664A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
KR102192091B1 (en) User interfaces for capturing and managing visual media
JP7171947B2 (en) User interface for capturing and managing visual media
DK201970592A1 (en) User interfaces for capturing and managing visual media

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150