JP6924319B2 - User interface for capturing and managing visual media - Google Patents
User interface for capturing and managing visual media Download PDFInfo
- Publication number
- JP6924319B2 JP6924319B2 JP2020184471A JP2020184471A JP6924319B2 JP 6924319 B2 JP6924319 B2 JP 6924319B2 JP 2020184471 A JP2020184471 A JP 2020184471A JP 2020184471 A JP2020184471 A JP 2020184471A JP 6924319 B2 JP6924319 B2 JP 6924319B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- representation
- cameras
- display
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 1290
- 238000000034 method Methods 0.000 claims description 1096
- 230000004044 response Effects 0.000 claims description 1089
- 230000033001 locomotion Effects 0.000 claims description 231
- 238000003860 storage Methods 0.000 claims description 178
- 230000009471 action Effects 0.000 claims description 163
- 238000012937 correction Methods 0.000 claims description 131
- 230000014509 gene expression Effects 0.000 claims description 115
- 230000015654 memory Effects 0.000 claims description 102
- 238000012545 processing Methods 0.000 claims description 70
- 230000008859 change Effects 0.000 description 317
- 238000001514 detection method Methods 0.000 description 110
- 230000000694 effects Effects 0.000 description 106
- 230000008569 process Effects 0.000 description 104
- 238000010586 diagram Methods 0.000 description 97
- 230000002829 reductive effect Effects 0.000 description 73
- 230000007613 environmental effect Effects 0.000 description 47
- 230000002093 peripheral effect Effects 0.000 description 47
- 238000004891 communication Methods 0.000 description 42
- 230000004913 activation Effects 0.000 description 34
- 239000002131 composite material Substances 0.000 description 33
- 230000006870 function Effects 0.000 description 33
- 210000003811 finger Anatomy 0.000 description 30
- 238000005286 illumination Methods 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 29
- 238000005516 engineering process Methods 0.000 description 26
- 230000007704 transition Effects 0.000 description 26
- 230000004308 accommodation Effects 0.000 description 24
- 230000001149 cognitive effect Effects 0.000 description 21
- 238000003825 pressing Methods 0.000 description 21
- 230000006641 stabilisation Effects 0.000 description 19
- 238000011105 stabilization Methods 0.000 description 19
- 230000007423 decrease Effects 0.000 description 18
- 230000009467 reduction Effects 0.000 description 18
- 230000006399 behavior Effects 0.000 description 17
- 230000009977 dual effect Effects 0.000 description 17
- 230000000977 initiatory effect Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 14
- 238000007726 management method Methods 0.000 description 13
- 238000010079 rubber tapping Methods 0.000 description 13
- 238000005201 scrubbing Methods 0.000 description 13
- 230000003068 static effect Effects 0.000 description 13
- 241000699666 Mus <mouse, genus> Species 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 12
- 238000012549 training Methods 0.000 description 11
- 230000003247 decreasing effect Effects 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 230000000873 masking effect Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 7
- 238000009499 grossing Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 201000005111 ocular hyperemia Diseases 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 7
- 239000007787 solid Substances 0.000 description 7
- 230000000295 complement effect Effects 0.000 description 6
- 238000005562 fading Methods 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000014616 translation Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000002441 reversible effect Effects 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 201000006747 infectious mononucleosis Diseases 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 230000021317 sensory perception Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 2
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 241000282994 Cervidae Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013503 de-identification Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
- G06F9/44526—Plug-ins; Add-ons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/684—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
- H04N23/6845—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Stroboscope Apparatuses (AREA)
- Exposure Control For Cameras (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Controls And Circuits For Display Device (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Solid-Sorbent Or Filter-Aiding Compositions (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Description
(関連出願の相互参照)
本出願は、米国特許出願第62/844,110号、表題「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」(2019年5月6日出願)及び米国特許出願第62/856,036号、表題「USER INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA」(2019年6月1日出願)(これらの内容は全体として本明細書に参考として組み込まれる)に関する。
(Cross-reference of related applications)
This application includes U.S. Patent Application No. 62 / 844,110, title "USER InterfaceS FOR CAPTURING AND MANAGING VISUAL MEDIA" (filed May 6, 2019) and U.S. Patent Application No. 62 / 856,036, title "USER". INTERFACES FOR CAPTURING AND MANAGING VISUAL MEDIA "(filed June 1, 2019) (these contents are incorporated herein by reference in their entirety).
本開示は、概して、コンピュータユーザインタフェースに関し、より詳細には視覚メディアをキャプチャ及び管理する技術に関する。 The present disclosure relates generally to computer user interfaces, and more specifically to techniques for capturing and managing visual media.
スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。 Users of smartphones and other personal electronic devices capture, store and edit media more often to keep their memories safe and share with friends. Some existing technologies have allowed users to capture images or videos. The user can manage such media, for example, by capturing, storing, and editing the media.
しかしながら、電子デバイスを使用してメディアをキャプチャ及び管理するいくつかの技術は、概して面倒であり、非効率である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。 However, some techniques for capturing and managing media using electronic devices are generally cumbersome and inefficient. For example, some existing technologies use complex and time consuming user interfaces that may involve multiple key presses or keystrokes. Existing technologies require more time than necessary, wasting user time and device energy. The latter problem is particularly serious in battery-powered devices.
したがって、本技術は、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースを電子デバイスに提供する。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を任意に補完するか、又は置き換わる。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減させ、より効率的なヒューマン−マシンインタフェースを作成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電の間隔を長くする。 Therefore, the technology provides electronic devices with faster, more efficient methods and interfaces for capturing and managing media. Such methods and interfaces optionally complement or replace other methods for capturing and managing media. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-powered computing devices, such methods and interfaces save power and increase battery charging intervals.
いくつかの例では、本技術は、ユーザが、時間効率及び入力効率が良い方法でキャプチャされたメディアを編集することを可能にし、それにより、デバイスが行う必要がある処理の量を低減することができる。いくつかの例では、本技術は、フレームレートを管理し、それにより、記憶空間を節約し、処理要件を低減する。 In some examples, the technology allows the user to edit the captured media in a time-efficient and input-efficient manner, thereby reducing the amount of processing that the device needs to do. Can be done. In some examples, the technology manages frame rates, thereby saving storage space and reducing processing requirements.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, the camera user interface including a camera display area containing representations of the field of view of one or more cameras and camera controls including multiple control affordances. Displaying the camera user interface, including the area, and the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying and without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and the second The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying the control affordance of. It includes displaying the first control affordance according to the determination that the control affordance is satisfied, and displaying the second control affordance according to the determination that the second predetermined condition is satisfied.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface via a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and a camera control area that includes a plurality of control accommodations. Display the camera user interface, including, and display the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and without displaying the second control. The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying the accommodation. According to the determination that the first control affordance is displayed, and according to the determination that the second predetermined condition is satisfied, the second control affordance is displayed.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The display of a camera user interface via a display device, wherein the camera user interface includes a camera display area that includes representations of the field of view of one or more cameras, and a camera control area that includes multiple control accommodations. Displaying the camera user interface, including, and displaying the first control affordance associated with the first default condition while the first and second default conditions are not met. Displaying the camera user interface without displaying the second control affordance associated with the second default condition, and without displaying the first control affordance, and without displaying the second control affordance. The first default condition is met in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying. It includes an instruction to display the first control affordance according to the determination and to display the second control affordance according to the determination that the second predetermined condition is satisfied.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示することと、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出することと、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することと、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, the camera user interface having a camera display area containing a representation of the field of view of one or more cameras and a plurality of control affordances. Displaying the camera user interface, including, and the first associated with the first default condition while the first and second default conditions are not met. Without displaying the control affordance of, and without displaying the second control affordance associated with the second default condition, without displaying the camera user interface, and without displaying the first control affordance. And in response to detecting a change in condition and detecting a change in condition while displaying the camera user interface without displaying a second control affordance, the first default The command to display the first control affordance according to the determination that the condition is satisfied and to display the second control affordance according to the determination that the second default condition is satisfied. include.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、第1の既定の条件及び第2の既定の条件が満たされない間に、第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示する手段と、第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、条件の変化を検出したことに応答して、第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示する手段と、第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. A means of displaying a camera user interface, including a display area and a camera control area containing a plurality of control affordances, and a first default while the first and second default conditions are not met. A means of displaying the camera user interface without displaying the first control affordance associated with the condition of, and without displaying the second control affordance associated with the second default condition, and the first. Means for detecting changes in conditions and responding to detection of changes in conditions while displaying the camera user interface without displaying the control affordances of Then, according to the determination that the first default condition is satisfied, the means for displaying the first control affordance, and according to the determination that the second default condition is satisfied, the second control affordance is performed. It is provided with a means for displaying.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, the camera user interface having a camera display area containing a representation of the field of view of one or more cameras and a plurality of cameras in a first location. Displaying the camera user interface, including the camera control area including mode accommodation, and detecting the first gesture on the camera user interface while displaying the camera user interface, and the first. Modifying the appearance of the camera control area in response to detecting a gesture, one or more additional camera modes in the first location, depending on the determination that the gesture is a first type of gesture. Displaying the affordance and stopping the display of multiple camera modes according to the determination that the gesture is a second type of gesture different from the first type, and setting multiple cameras in the first location. Includes displaying affordance and modifying the appearance of the camera control area, which is a setting that adjusts the camera settings affordance for the currently selected camera mode image capture.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface has a camera display area containing a representation of the field of view of one or more cameras and a plurality of camera mode affordances in a first place. To display the camera user interface, including, and to detect the first gesture on the camera user interface while displaying the camera user interface, and to display the first gesture. Modifying the appearance of the camera control area in response to detection, with one or more additional camera mode affordances in the first location, depending on the determination that the gesture is the first type of gesture. Stop displaying multiple camera mode affordances and perform multiple camera setting affordances in the first location, depending on the display and the determination that the gesture is a second type of gesture different from the first type. Includes instructions to display and to modify the appearance of the camera control area, where the camera settings affordance is a setting that adjusts the image capture for the currently selected camera mode.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. , Displaying the camera user interface via a display device, wherein the camera user interface provides a camera display area containing a representation of the field of view of one or more cameras and multiple camera mode affordances in a first location. Displaying the camera user interface, including the camera control area, and detecting the first gesture on the camera user interface while displaying the camera user interface, and detecting the first gesture. In response to what you have done is to modify the appearance of the camera control area and display one or more additional camera mode affordances in the first place, depending on the determination that the gesture is the first type of gesture. To stop displaying multiple camera mode affordances and to display multiple camera setting affordances in the first location, depending on what to do and the determination that the gesture is a second type of gesture different from the first type. Includes instructions to modify the appearance of the camera control area, including, and the camera settings affordance is a setting that adjusts the image capture of the currently selected camera mode.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出することと、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正することであって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止することと、第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and a first location. Displaying the camera user interface, including a camera control area containing multiple camera mode accommodations, and detecting the first gesture on the camera user interface while displaying the camera user interface. , Modifying the appearance of the camera control area in response to the detection of the first gesture, and according to the determination that the gesture is a first type of gesture, one or more at the first location. Displaying additional camera mode affordances and stopping the display of multiple camera mode affordances according to the determination that the gesture is a second type of gesture different from the first type, and at the first location. Instructions to display multiple camera settings affordances, including to modify the appearance of the camera control area, which is a setting that adjusts the image capture of the currently selected camera mode. include.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、カメラユーザインタフェース上で第1のジェスチャを検出する手段と、第1のジェスチャを検出したことに応答して、カメラコントロール領域の外観を修正する手段であって、ジェスチャが第1のタイプのジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示する手段と、ジェスチャが第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンスの表示を停止する手段と、第1の場所で複数のカメラ設定アフォーダンスを表示する手段と、を含み、カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、カメラコントロール領域の外観を修正する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. A means of displaying the camera user interface, including a display area and a camera control area that includes multiple camera mode accommodations in a first location, and a second on the camera user interface while displaying the camera user interface. A means of detecting the first gesture and a means of modifying the appearance of the camera control area in response to the detection of the first gesture, the first according to the determination that the gesture is the first type of gesture. Stop displaying multiple camera mode affordances according to the means by which one or more additional camera mode affordances are displayed at one location and the determination that the gesture is a second type of gesture different from the first type. The appearance of the camera control area, which includes means and means for displaying multiple camera setting affordances in a first place, the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode. It is provided with a means for correction.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method receives a request to display the user camera user interface, responds to the request to display the camera user interface, and determines that the respective criteria are not met. Through the display of the camera user interface, the camera user interface is a first region containing a representation of a first portion of the field of view of one or more cameras and a first region of the field of view of one or more cameras. A second region comprising a representation of the second portion, comprising a second region, wherein the second portion of the field of view of one or more cameras is visually distinguishable from the first portion. Displaying the camera user interface, detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and capturing the media with one or more cameras. Visual content corresponding to the first part of the field of view of one or more cameras and vision corresponding to the second part of the field of view of one or more cameras in response to detecting an input corresponding to the request. To capture the content and the media item containing it with one or more cameras, to receive a request to display the media item after capturing the media item, and to receive a request to display the media item. In response, the visual content corresponding to the first part of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second part of the field of view of the one or more cameras. Includes displaying the first expression.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, through the display device. Is to display the camera user interface, the camera user interface having a first region containing a representation of a first portion of the field of view of one or more cameras and a second region of the field of view of one or more cameras. A camera user that includes a second region that includes a representation of a portion, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. Displaying the interface and detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and the request to capture media with one or more cameras. In response to the detection of the input corresponding to, the visual content corresponding to the first part of the field of view of one or more cameras and the visual content corresponding to the second part of the field of view of one or more cameras. In response to capturing a media item containing, with one or more cameras, receiving a request to view the media item after capturing the media item, and receiving a request to view the media item. The first part of the visual content corresponding to the first part of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second part of the field of view of the one or more cameras. Includes instructions for displaying the representation of.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras, and the one or more programs. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, via the display device, Displaying the camera user interface, wherein the camera user interface contains a first region containing a representation of a first portion of the field of view of one or more cameras and a second portion of the field of view of one or more cameras. A camera user interface comprising a second region comprising the representation of, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. To detect the input corresponding to the request to capture media with one or more cameras and to capture the media with one or more cameras while the camera user interface is displayed. In response to detecting the corresponding input, the visual content corresponding to the first part of the field of view of one or more cameras and the visual content corresponding to the second part of the field of view of one or more cameras. In response to capturing a media item containing, with one or more cameras, receiving a request to view the media item after capturing the media item, and receiving a request to view the media item. A first portion of the visual content corresponding to the first portion of the field of view of one or more cameras without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of one or more cameras. Includes instructions for displaying expressions.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、ユーザカメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャすることと、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信することと、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. In response to receiving a request to display the user camera user interface and receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met. A display of the camera user interface via a display device, wherein the camera user interface includes a first region containing a representation of a first portion of the field of view of one or more cameras and one or more cameras. A second region that contains a representation of a second portion of the field of view of one or more cameras, wherein the second portion of the field of view of one or more cameras is visually distinguished from the first portion. Displaying the camera user interface, including, and detecting the input corresponding to the request to capture media with one or more cameras while the camera user interface is displayed, and one or more cameras. In response to detecting the input corresponding to the request to capture the media in, the visual content corresponding to the first part of the field of view of one or more cameras and the second part of the field of view of one or more cameras. Capturing media items with one or more cameras, including the corresponding visual content, and receiving a request to display the media item after capturing the media item, and a request to display the media item. Corresponds to the first portion of the field of view of one or more cameras without displaying at least a portion of the representation of the visual content corresponding to the second portion of the field of view of the one or more cameras in response to the reception. Includes instructions for displaying the first representation of the visual content to be done.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、ユーザカメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、1つ以上のカメラの視野の第2の部分の表現を含む第2の領域であって、1つ以上のカメラの視野の第2の部分が、第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースが表示されている間に、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出したことに応答して、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、1つ以上のカメラでキャプチャする手段と、メディアアイテムをキャプチャした後に、メディアアイテムを表示する要求を受信する手段と、メディアアイテムを表示する要求を受信したことに応答して、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, one or more cameras, a means of receiving a request to display a user camera user interface, a response to receiving a request to display a camera user interface, and their respective criteria. A first means of displaying a camera user interface via a display device according to a determination that is not satisfied, wherein the camera user interface includes a representation of a first portion of the field of view of one or more cameras. A second region that includes a region and a representation of a second portion of the field of view of one or more cameras, the second part of the field of view of one or more cameras being visually distinguished from the first part. A means of displaying the camera user interface, including a second area, and while the camera user interface is displayed, detect the input corresponding to the request to capture the media with one or more cameras. Means and visual content corresponding to a first portion of the field of view of one or more cameras and one or more in response to detecting an input corresponding to a request to capture media with one or more cameras. A means of capturing a media item, including visual content corresponding to a second portion of the camera's field of view, with one or more cameras, and a means of receiving a request to display the media item after capturing the media item. In response to receiving a request to display a media item, one or more cameras, without displaying a representation of at least a portion of the visual content corresponding to a second portion of the field of view of the one or more cameras. A means for displaying a first representation of visual content corresponding to a first portion of the field of view is provided.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. And while displaying the camera user interface, detect the request to capture the media corresponding to the field of view of one or more cameras, and the request to capture the media corresponding to the field of view of one or more cameras. While capturing the media corresponding to the field of view of one or more cameras in response to the detection, displaying the representation of the captured media, and displaying the representation of the captured media. In response to detecting that the captured media representation has been displayed for a predetermined period of time and for detecting that the captured media representation has been displayed for a predetermined period of time, the camera user interface This includes stopping the display of at least the first portion of the captured media representation while maintaining the display.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. While displaying the camera user interface, it detected a request to capture media corresponding to the field of view of one or more cameras and a request to capture media corresponding to the field of view of one or more cameras. In response to capturing the media corresponding to the field of view of one or more cameras, displaying the representation of the captured media, and capturing while viewing the representation of the captured media. The display of the camera user interface is displayed in response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time. Includes instructions to stop displaying at least the first part of the captured media representation while maintaining.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Displaying the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. Detecting a request to capture media corresponding to the field of view of one or more cameras and detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the user interface. Captured while capturing the media corresponding to the field of view of one or more cameras, displaying the representation of the captured media, and displaying the representation of the captured media in response to Maintains the display of the camera user interface in response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time. In the meantime, it includes instructions to stop displaying at least the first part of the captured media representation.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出することと、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャすることと、キャプチャされたメディアの表現を表示することと、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出することと、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. And while displaying the camera user interface, detect a request to capture media that corresponds to the field of view of one or more cameras, and media that corresponds to the field of view of one or more cameras. In response to detecting a request to capture, capture the media corresponding to the field of view of one or more cameras, display the representation of the captured media, and display the representation of the captured media. In response to detecting that the representation of the captured media has been displayed for a predetermined period of time and that the representation of the captured media has been displayed for a predetermined period of time, Includes instructions to stop displaying at least the first portion of the captured media representation while maintaining the display of the camera user interface.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出する手段と、1つ以上のカメラの視野に対応するメディアをキャプチャする要求を検出したことに応答して、1つ以上のカメラの視野に対応するメディアをキャプチャする手段と、キャプチャされたメディアの表現を表示する手段と、キャプチャされたメディアの表現を表示している間に、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する手段と、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a camera user interface via a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. Means for displaying the camera user interface, including the display area, and means for detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface, and one or more. Means to capture media corresponding to the field of view of one or more cameras, means to display a representation of the captured media, and capture in response to detecting a request to capture media corresponding to the field of view of the camera. A means of detecting that the captured media representation was displayed for a predetermined period of time while displaying the captured media representation, and that the captured media representation was displayed for a predetermined period of time. It comprises means for stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface in response to the detection.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. And each on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. According to the determination that a set of aspect ratio change criteria is met in response to the detection of the first input containing the first contact at the location of and the detection of the first input. In response to a request to capture, the electronic device is configured to capture the media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is at least a threshold time. The first is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to the request to capture the media over an amount. Consists of configuring, including the criteria that the input of is met, and subsequently detecting the movement of the first contact to a second location that is different from the first location.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface displays a camera user interface that includes a camera display area that includes a representation of the field of view of one or more cameras. Each location on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. The media is captured according to the detection of the first input, including the first contact, and the determination that a set of aspect ratio change criteria is met in response to the detection of the first input. In response to a request, the electronic device is configured to capture media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is provided for at least a threshold time amount. The first input is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to the request to capture the media. Includes instructions to configure, including criteria that are met, and subsequently to detect the movement of the first contact to a second location that is different from the first location.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Displaying the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras, and media. In response to receiving a request to capture, at each location on the representation of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio. A request to capture the media according to the detection of the first input, including the first contact, and the determination that a set of aspect ratio change criteria is met in response to the detection of the first input. In response to, the electronic device is configured to capture the media in a second aspect ratio that is different from the first aspect ratio, and a set of aspect ratio change criteria is the media for at least a threshold time amount. The first input is to maintain the first contact at the first location that corresponds to the default portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to the request to capture. Includes instructions to configure, including criteria that are met, and subsequently to detect the movement of the first contact to a second location that is different from the first location.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することであって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成することと、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras. Of the field of view of one or more cameras while the electronic device is configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. Detecting a first input that includes a first contact at each location in the representation and determining that a set of aspect ratio change criteria is met in response to the detection of the first input. According to, in response to the request to capture the media, the electronic device is configured to capture the media with a second aspect ratio different from the first aspect ratio, and a set of aspect ratio change criteria is Maintain a first contact at a first location that corresponds to a default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to a request to capture the media for at least a threshold amount of time. The instruction to configure, including the criteria that the first input contains and to detect the movement of the first contact to a second place different from the first place. including.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように電子デバイスが構成されている間に、1つ以上のカメラの視野の表現上のそれぞれの場所に第1の接触を含む第1の入力を検出する手段と、第1の入力を検出したことに応答して、1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成する手段であって、1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含む、構成する手段と、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is to display a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface includes a representation of the field of view of one or more cameras. While the means for displaying the camera user interface, including the display area, and the electronic device being configured to capture the media in the first aspect ratio in response to receiving a request to capture the media. A means of detecting a first input, including a first contact, at each location on the representation of the field of view of one or more cameras, and a set of aspect ratio changes in response to the detection of the first input. A means of configuring an electronic device to capture media in a second aspect ratio that is different from the first aspect ratio in response to a request to capture the media according to the determination that the criteria are met. A first location where a set of aspect ratio change criteria corresponds to a default portion of the camera display area that represents at least a portion of the media boundary that is captured in response to a request to capture the media for at least a threshold amount of time. The means of constructing, including the criteria that the first input includes to maintain the first contact in, followed by the movement of the first contact to a second location different from the first location. It is provided with a means for detecting the above.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及びカメラを有する電子デバイスで行われる。この方法は、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device having a display device and a camera. This method presents a first camera user interface that captures media in the first camera orientation at the first zoom level through the display device while the electronic device is in the first orientation. Responds to detecting a change in the orientation of the electronic device from the first orientation to the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. Therefore, according to the determination that one set of automatic zoom criteria is automatically satisfied without the intervention of user input, the second zoom level is different from the first zoom level, and the orientation of the second camera Includes displaying a second camera user interface that captures media.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and a camera, and one or more programs are electronic devices. To display the first camera user interface that captures the media in the first camera orientation at the first zoom level and from the first orientation through the display device while is in the first orientation. Intervening user input in response to detecting a change in the orientation of the electronic device in the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation A second that automatically captures media in a second camera orientation at a second zoom level that is different from the first zoom level, according to the determination that a set of automatic zoom criteria is met. Includes instructions for displaying the camera user interface of.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs that are configured to be executed by one or more processors of an electronic device that includes a display device and a camera, and one or more programs are used by the electronic device. Displaying the first camera user interface that captures the media in the first camera orientation at the first zoom level through the display device while in the first orientation, and from the first orientation to the first. User input intervenes in response to detecting a change in the orientation of the electronic device in the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. A second that automatically captures media in a second camera orientation at a second zoom level that is different from the first zoom level, according to the determination that a set of automatic zoom criteria is met. Includes instructions for displaying the camera user interface.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、カメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出することと、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises one or more display devices, a camera, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. Program displays a first camera user interface that captures media in a first camera orientation at a first zoom level through a display device while the electronic device is in the first orientation. Responds to detecting a change in the orientation of the electronic device from the first orientation to the second orientation and detecting a change in the orientation of the electronic device from the first orientation to the second orientation. Therefore, according to the determination that one set of automatic zoom criteria is automatically satisfied without the intervention of user input, the second zoom level is different from the first zoom level, and the orientation of the second camera. Includes instructions for displaying a second camera user interface that captures media.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、カメラと、電子デバイスが第1の向きにある間に、表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出する手段と、第1の向きから第2の向きへの、電子デバイスの向きの変化を検出したことに応答して、ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, electronic devices are described. The electronic device captures the media in the first camera orientation at the first zoom level through the display device while the display device, the camera, and the electronic device are in the first orientation. Means for displaying the camera user interface, means for detecting changes in the orientation of the electronic device from the first orientation to the second orientation, and orientation of the electronic device from the first orientation to the second orientation. In response to the detection of a change, at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without intervention of user input. A means of displaying a second camera user interface that captures media in the orientation of the second camera.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method involves displaying a media capture user interface, including displaying a representation of the field of view of one or more cameras via a display device, and through the camera while displaying the media capture user interface. In response to detecting changes in the field of view of one or more cameras and detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are met. One or more based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. One or more at a second frame rate lower than the first frame rate, according to updating the representation of the camera's field of view and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. It includes updating the representation of the field of view of one or more cameras based on the changes detected within the field of view of one or more cameras.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Through the camera, while displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device, and while displaying the media capture user interface. In response to detecting changes in the field of view of one or more cameras and detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are met, 1 Of one or more cameras, based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. One or more cameras at a second frame rate lower than the first frame rate, according to updating the representation of the field of view and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected within the field of view of.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Through the camera, while displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device, and displaying the media capture user interface, 1 One in response to detecting changes in the visual field of one or more cameras and in response to detecting changes in the visual field of one or more cameras, and according to the determination that the variable frame rate criteria are met. According to the determination that the detected changes in the field of view of the above cameras meet the movement criteria, the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras at the first frame rate. Of the one or more cameras at a second frame rate lower than the first frame rate, according to updating the representation of Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected in the field of view.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出することと、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. While displaying a media capture user interface, including displaying a representation of the field of view of one or more cameras through a display device, and displaying the media capture user interface. In response to detecting changes in the field of one or more cameras through the camera and detecting changes in the field of one or more cameras, and variable frame rate criteria are met. Based on the changes detected in the field of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of one or more cameras meet the movement criteria. A second frame rate lower than the first frame rate according to updating the representation of the field of view of one or more cameras and determining that the detected changes in the field of view of one or more cameras do not meet the movement criteria. Includes instructions to update the representation of the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、メディアキャプチャユーザインタフェースを表示している間に、カメラを介して、1つ以上のカメラの視野内の変化を検出する手段と、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する手段と、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a means of displaying a media capture user interface, including displaying a display device, one or more cameras, and a representation of the field of view of one or more cameras through the display device, and a media capture user. Means for detecting changes in the field of view of one or more cameras through the cameras while displaying the interface, and in response to detecting changes in the field of view of one or more cameras, and Within the field of view of one or more cameras at the first frame rate, according to the determination that the variable frame rate criteria are met, and according to the determination that the detected changes in the field of view of one or more cameras meet the motion criteria. The first frame, according to means for updating the representation of the field of view of one or more cameras based on the detected changes and the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria. It comprises means for updating the representation of the field of view of one or more cameras based on the changes detected in the field of view of one or more cameras at a second frame rate lower than the rate.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method is to receive a request to display the camera user interface and to display the camera user interface via a display device in response to receiving a request to display the camera user interface. Low light conditions are met, including displaying the representation of the field of view of one or more cameras through a display device and the conditions that are met when the ambient light in the field of view of one or more cameras falls below their respective thresholds. According to the determination, the field of view of one or more cameras is represented, and at the same time, a control that adjusts the capture duration of capturing the media in response to the request to capture the media is displayed, and the low light condition is satisfied. Includes displaying the camera user interface, including stopping displaying controls that adjust the capture duration according to the determination that there is none.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Receiving a request to display the camera user interface and displaying the camera user interface through the display device in response to receiving a request to display the camera user interface. It is said that the low light condition including the condition that the representation of the field of view of one or more cameras is displayed and the condition that the ambient light in the field of view of one or more cameras falls below each threshold is satisfied. According to the verdict, at the same time as representing the field of view of one or more cameras, it displays a control that adjusts the capture duration to capture the media in response to the request to capture the media, and the low light conditions are not met. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration according to the determination.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. In response to receiving a request to display the camera user interface and receiving a request to display the camera user interface, the display device is to display the camera user interface through the display device. Through the display of the representation of the field of view of one or more cameras, and the determination that low light conditions are met, including conditions that are met when the ambient light in the field of view of one or more cameras falls below their respective thresholds. According to, at the same time as representing the field of view of one or more cameras, display a control that adjusts the capture duration to capture the media in response to the request to capture the media, and determine that the low light conditions are not met. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration accordingly.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、カメラユーザインタフェースを表示する要求を受信することと、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示することであって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することと、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. One or more programs receive a request to display the camera user interface and display the camera user interface via a display device in response to receiving a request to display the camera user interface. Low light including the condition that the representation of the field of view of one or more cameras is displayed via a display device and that the ambient light in the field of view of one or more cameras is satisfied when it falls below their respective thresholds. Representing the field of view of one or more cameras according to the determination that the condition is met, as well as displaying a control that adjusts the capture duration to capture the media in response to the request to capture the media, and low light conditions. Includes instructions to display the camera user interface, including to stop displaying controls that adjust the capture duration, according to the determination that is not satisfied.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、カメラユーザインタフェースを表示する要求を受信する手段と、カメラユーザインタフェースを表示する要求を受信したことに応答して、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段と、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、1つ以上のカメラの視野の表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめる手段と、を含む、カメラユーザインタフェースを表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is via a display device, one or more cameras, a means of receiving a request to display the camera user interface, and a request to display the camera user interface in response to receiving the request. , A means of displaying a camera user interface, a means of displaying an representation of the field of view of one or more cameras via a display device, and ambient light within the field of view of one or more cameras below their respective thresholds. A control that adjusts the capture duration to capture the media in response to the request to capture the media, as well as the representation of the field of view of one or more cameras, according to the determination that the low light conditions are met, including the condition that is met. It comprises means for displaying the camera user interface, including means for displaying and for stopping displaying the control for adjusting the capture duration according to the determination that the low light condition is not met.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method displays the camera user interface through a display device and, while displaying the camera user interface, through one or more sensors of the electronic device, within the field of view of one or more cameras. Low light according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment criteria in response to the detection of the amount of light in the field of view of one or more cameras. Environmental criteria include criteria that are met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, with a flash status indicator in the camera user interface indicating the status of the flash operation and the status of the low light capture mode. The low light capture status indicator in the camera user interface is displayed according to the simultaneous display of the low light capture status indicator, and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard. Including to stop displaying.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The amount of light in the field of view of one or more cameras through one or more sensors of the electronic device while displaying the camera user interface through the display device and displaying the camera user interface. In response to the detection of and the detection of the amount of light in the field of view of one or more cameras, the low light environment standard is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment standard. Including a criterion that is met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, a flash state indicator indicating the state of flash operation and a state of low light capture mode are shown in the camera user interface. Display the low light capture status indicator in the camera user interface according to the simultaneous display of the low light capture status indicator and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Includes orders to stop.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. Temporary computer-readable storage media stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. The amount of light in the field of view of one or more cameras through one or more sensors of the electronic device while displaying the camera user interface through the display device and displaying the camera user interface. In response to the detection and detection of the amount of light in the field of view of one or more cameras, the low light environment standard is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environment standard. A flash state indicator indicating the state of flash operation and a low indicating the state of low light capture mode are included in the camera user interface, including criteria that are met when the amount of light in the field of view of one or more cameras falls below a predetermined threshold. Displaying the light capture status indicator at the same time and displaying the low light capture status indicator in the camera user interface according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environment standard. Includes orders to quit.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することと、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出することと、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. While one or more programs display the camera user interface through the display device and display the camera user interface, one or more through one or more sensors of the electronic device. Determining that the amount of light in the field of one or more cameras meets the low light environment criteria in response to detecting the amount of light in the field of the camera and detecting the amount of light in the field of one or more cameras. According to, the low light environment standard includes a standard that is satisfied when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, and in the camera user interface, a flash state indicator indicating the state of flash operation and low light. Low light in the camera user interface according to the simultaneous display of a low light capture status indicator indicating the state of the capture mode and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Includes instructions to stop displaying the capture status indicator.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、カメラユーザインタフェースを表示している間に、電子デバイスの1つ以上のセンサを介して、1つ以上のカメラの視野内の光量を検出する手段と、1つ以上のカメラの視野内の光量を検出したことに応答して、1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、低光環境基準が、1つ以上のカメラの視野内の光量が所定の閾値を下回ると満たされる基準を含み、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータと、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示する手段と、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、カメラユーザインタフェース内の低光キャプチャ状態インジケータを表示するのをやめる手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, one or more cameras, a means of displaying the camera user interface through the display device, and one or more sensors of the electronic device while displaying the camera user interface. The amount of light in the field of view of one or more cameras is increased in response to the detection of the amount of light in the field of view of one or more cameras and the detection of the amount of light in the field of view of one or more cameras. According to the determination that the low light environment standard is satisfied, the low light environment standard includes a standard that is satisfied when the amount of light in the field of view of one or more cameras falls below a predetermined threshold, and the state of flash operation is set in the camera user interface. According to the means for simultaneously displaying the flash status indicator indicating and the low light capture status indicator indicating the status of the low light capture mode, and the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard. , A means of stopping displaying the low light capture status indicator in the camera user interface.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method presents on the display device a first affordance corresponding to the representation of the visual media and a first editable parameter for editing the representation of the visual media, and a second editable parameter for editing the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface. In response to detecting the first user input corresponding to the first affordance selection, a first editable parameter is placed on the display device at each location within the media editing user interface. The first while displaying the adjustable control to adjust and while displaying the adjustable control to adjust the first editable parameter, and while the first editable parameter is selected. Adjusting the editable parameters of the Adjustable to detect the first gesture directed at the adjustable control and to adjust the first editable parameter while the first editable parameter is selected Adjusting the current value of the first editable parameter according to the first gesture in response to the detection of the first gesture directed at the control, and the first editable parameter on the display device. While displaying the adjustable control, it detects the second user input corresponding to the second affordance selection and the second user input corresponding to the second affordance selection. In response to the detection, display an adjustable control that adjusts the second editable parameter at each location in the media editing user interface, and adjust the second editable parameter. To detect a second gesture directed at an adjustable control that adjusts the second editable parameter while the control is displayed and while the second editable parameter is selected. In response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected, according to the second gesture Includes adjusting the current value of the second editable parameter.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. , The first affordance corresponding to the representation of the visual media and the first editable parameter to edit the representation of the visual media, and the second affordance corresponding to the second editable parameter to edit the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface, and the first affordance. In response to detecting the first user input corresponding to the selection of, display on the display device an adjustable control that adjusts the first editable parameter at each location in the media editing user interface. Adjustments to adjust the first editable parameter while displaying the adjustable control and adjusting the first editable parameter while the first editable parameter is selected. A first directed to an adjustable control that detects a first gesture directed to a possible control and adjusts the first editable parameter while the first editable parameter is selected. Adjust the current value of the first editable parameter according to the first gesture in response to the detection of the gesture, and adjust the display device to adjust the first editable parameter. In response to detecting the second user input corresponding to the second affordance selection and detecting the second user input corresponding to the second affordance selection while displaying, While displaying an adjustable control that adjusts the second editable parameter and an adjustable control that adjusts the second editable parameter at each location in the media editing user interface. , And while the second editable parameter is selected, the detection of a second gesture directed at an adjustable control that adjusts the second editable parameter and the second editable parameter Responds to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while selected Then, the instruction of adjusting the current value of the second editable parameter according to the second gesture is included.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. The temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. The representation of the visual media, the first affordance corresponding to the first editable parameter that edits the representation of the visual media, and the second affordance that corresponds to the second editable parameter that edits the representation of the visual media. Displaying the media editing user interface, including, and detecting the first user input corresponding to the selection of the first affordance while displaying the media editing user interface, and the first affordance. In response to detecting the first user input corresponding to the selection, display an adjustable control on the display device at each location within the media editing user interface that adjusts the first editable parameter. And that, while displaying the adjustable control that adjusts the first editable parameter, and while the first editable parameter is selected, adjust the first editable parameter. A first gesture directed at a control that adjusts the first editable parameter while the first editable parameter is selected. In response to detecting a gesture, adjust the current value of the first editable parameter according to the first gesture, and display an adjustable control on the display device that adjusts the first editable parameter. In response to detecting the second user input corresponding to the second affordance selection and detecting the second user input corresponding to the second affordance selection, the media While displaying the adjustable control that adjusts the second editable parameter and the adjustable control that adjusts the second editable parameter at each location in the edit user interface. And while the second editable parameter is selected, the detection of a second gesture directed at an adjustable control that adjusts the second editable parameter and the selection of the second editable parameter. In response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while It includes an instruction to adjust the current value of the second editable parameter according to the second gesture.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出することと、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することと、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出することと、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整することと、を含む。 According to some embodiments, electronic devices are described. The electronic device is on a display device with a first editability corresponding to the representation of the visual media and a first editable parameter for editing the representation of the visual media, and a second editability for editing the representation of the visual media. Displaying the media editing user interface, including a second affordance corresponding to the parameter, and while displaying the media editing user interface, the first user input corresponding to the selection of the first affordance. In response to detecting and detecting the first user input corresponding to the first affordance selection, the first editable parameter on the display device, at each location within the media editing user interface. While displaying the adjustable control to adjust and while displaying the adjustable control to adjust the first editable parameter, and while the first editable parameter is selected, the first Adjusting the Editable Parameter of 1 Detecting the first gesture directed at the adjustable control and adjusting the first editable parameter while the first editable parameter is selected Adjusting the current value of the first editable parameter according to the first gesture in response to detecting the first gesture directed to a possible control and the first editability on the display device Adjusting Parameters While displaying the adjustable control, detecting the second user input corresponding to the second affordance selection and the second user input corresponding to the second affordance selection In response to the detection, display an adjustable control that adjusts the second editable parameter at each location in the media editing user interface, and adjust the second editable parameter. Detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while displaying the control and while the second editable parameter is selected. And, in response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second gesture Includes adjusting the current value of the second editable parameter according to.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、視覚メディアの表現と、視覚メディアの表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、視覚メディアの表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、メディア編集ユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所に、第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出したことに応答して、第1のジェスチャに従って第1の編集可能パラメータの現在値を調整する手段と、表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、第2のアフォーダンスの選択に対応する第2のユーザ入力を検出したことに応答して、メディア編集ユーザインタフェース内のそれぞれの場所に、第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャを検出したことに応答して、第2のジェスチャに従って第2の編集可能パラメータの現在値を調整する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device is a display device, a first affordance corresponding to a first editable parameter that edits the representation of the visual media and a first editable parameter on the display device, and a second that edits the representation of the visual media. A means of displaying a media editing user interface, including a second affordance corresponding to two editable parameters, and a first corresponding to the selection of the first affordance while displaying the media editing user interface. In response to detecting the user input of the first user input corresponding to the selection of the first affordance, the first on the display device, at each location in the media editing user interface. While displaying the means to display the adjustable control that adjusts the editable parameters of, and while displaying the adjustable control that adjusts the first editable parameter, and the first editable parameter is selected. In the meantime, a means of detecting a first gesture directed at an adjustable control that adjusts the first editable parameter, and a first editable parameter while the first editable parameter is selected. On the display device, a means of adjusting the current value of the first editable parameter according to the first gesture in response to the detection of the first gesture directed at the adjustable control. Adjusting the Editable Parameters of 1 While displaying the adjustable control, the means of detecting the second user input corresponding to the second affordance selection and the second corresponding to the second affordance selection. In response to detecting the second user input, a means of displaying an adjustable control for adjusting the second editable parameter and a second editable parameter at each location in the media editing user interface. A second gesture directed at an adjustable control that adjusts the second editable parameter while displaying the adjustable control to adjust and while the second editable parameter is selected. And in response to detecting a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected. A means for adjusting the current value of the second editable parameter according to the second gesture is provided.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method simultaneously displays a first representation of the first visual medium and an adjustable control, including an indication of the current adjustment amount for perspective distortion of the first visual medium, on the display device. Displaying the first user interface, including, and detecting user input, including gestures directed at adjustable controls, while displaying the first user interface on the display device. A first visual medium on the display device with each adjustment amount for perspective distortion selected based on the size of the gesture in response to detecting user input containing gestures directed to the adjustable control. Includes displaying a second representation of.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are placed on the display device. A first user interface that simultaneously displays a first representation of the first visual media and an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual media. Detecting user input, including gestures directed to adjustable controls, and directed to adjustable controls while displaying and displaying the first user interface on the display device. In response to detecting user input containing gestures, a second representation of the first visual medium is displayed on the display device with each adjustment amount for perspective distortion selected based on the magnitude of the gesture. Including the command of that.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and one or more programs are stored on the display device. Display a first user interface that includes simultaneously displaying a first representation of the first visual media and an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual media. To detect user input, including gestures directed to adjustable controls, and gestures directed to adjustable controls while displaying the first user interface on the display device. Displaying a second representation of the first visual medium on the display device in response to the detection of user input, including, with each adjustment amount for perspective distortion selected based on the magnitude of the gesture. And, including the instruction.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムが、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more processors, and a memory for storing one or more programs configured to be executed by the one or more processors. A first representation of the first visual media and an adjustable control including an indication of the current adjustment amount for perspective distortion of the first visual media are simultaneously displayed on the display device. Displaying one user interface and detecting user input, including gestures directed at adjustable controls, while displaying the first user interface on the display device, can be adjusted. A second of the first visual media with each adjustment amount for perspective distortion selected based on the magnitude of the gesture on the display device in response to detecting user input, including gestures directed at the control. Includes instructions for displaying the representation of.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイス上に、第1の視覚メディアの第1の表現と、第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示する手段と、表示デバイス上に、第1のユーザインタフェースを表示している間に、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量で第1の視覚メディアの第2の表現を表示する手段と、を備える。 According to some embodiments, electronic devices are described. This electronic device comprises a display device and an adjustable control on the display device that includes a first representation of the first visual medium and an indication of the current adjustment amount for perspective distortion of the first visual medium. A means of displaying a first user interface, including displaying the first user interface at the same time, and a user input containing a gesture directed at an adjustable control while displaying the first user interface on the display device. At each adjustment amount for perspective distortion selected based on the size of the gesture on the display device in response to detecting the means of detection and the detection of user input, including gestures directed at adjustable controls. A means for displaying a second representation of the first visual medium is provided.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras via a display device and captures the media while the low light camera mode is active. Displaying a control that adjusts the capture duration, including displaying the control, causes the control to have a first capture duration according to the determination that a set of first capture duration criteria is met. To display the indication that it is set to, and in response to a single request to capture the image corresponding to the field of view of one or more cameras, the first multiple images over the first capture duration. According to the configuration of the electronic device to capture, and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met, the control is first. Displaying an indication that a second capture duration is set longer than the capture duration, and in response to a single request to capture an image that corresponds to the field of view of one or more cameras, the second Includes configuring the electronic device to capture a second plurality of images over the capture duration of.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, wherein the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to a single request to display an indication that it is set to a second capture duration and to capture an image corresponding to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, wherein the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to a single request to display an indication that it is set to a second capture duration and to capture an image corresponding to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes one or more processors and a memory that stores one or more programs configured to be executed by the one or more processors, and one or more programs display the display device. Controls to display a media capture user interface, including displaying a representation of the field of view of one or more cameras, and to adjust the capture duration to capture the media while the low light camera mode is active. The control is set to the first capture duration according to the determination that displaying the control, including the instructions of, and displaying the control meets a set of first capture duration criteria. To capture the first multiple images over the first capture duration in response to a single request to capture the image corresponding to the field of view of one or more cameras. The control is longer than the first capture duration according to the configuration of the electronic device and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Over the second capture duration, in response to displaying an indication that it is set to a second capture duration and in response to a single request to capture an image that corresponds to the field of view of one or more cameras. Includes configuring the electronic device to capture a second plurality of images.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を含み、コントロールを表示する手段が、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成する手段と、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device presents a display device, a means of displaying a media capture user interface that includes means of displaying a representation of the field of view of one or more cameras through the display device, and while the low light camera mode is active. , A means of displaying a control that adjusts the capture duration to capture the media, and a means of displaying the control according to the determination that a set of first capture duration criteria is met. A means of displaying an indication that it is set to a capture duration of 1 and a first over the first capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. According to the means for configuring the electronic device to capture one plurality of images and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Means to display an indication that the control is set to a second capture duration that is longer than the first capture duration, and respond to a single request to capture an image that corresponds to the field of view of one or more cameras. The electronic device is then configured to capture the second plurality of images over the second capture duration.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、メディアをキャプチャする要求を受信したことに応答して、1つ以上のカメラを介して、メディアのキャプチャを開始することと、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、低光モードがアクティブであると満たされる基準を含む、1組のガイダンス基準が満たされているという判定に従って、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズとの差の視覚インジケーションを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. This method displays a media capture user interface that includes a representation of the field of view of one or more cameras via a display device, and media while displaying the media capture user interface through a display device. In response to receiving a request to capture media and receiving a request to capture media, initiating media capture through one or more cameras and through one or more cameras In the first time after starting the capture of the media, the media via the display device, according to the determination that a set of guidance criteria is met, including the criteria that the low light mode is met as active. Includes displaying a visual indication of the difference between the pose of the electronic device when the capture of the device is started and the pose of the electronic device at the first time after the start of the capture of the media.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. Displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras, and controls that adjust the capture duration to capture the media while the low light camera mode is active. It is said that the control is set to the first capture duration according to the determination that displaying and displaying the control, including the instructions, meet a set of first capture duration criteria. Electronic to capture the first multiple images over the first capture duration in response to a single request to display the indication and capture the images corresponding to the field of view of one or more cameras. The control is longer than the first capture duration, according to the configuration of the device and the determination that a set of second capture duration criteria different from the first set of capture duration criteria is met. Displaying an indication that it is set to a capture duration of 2 and responding to a single request to capture an image corresponding to the field of view of one or more cameras, a second over the second capture duration. Includes configuring an electronic device to capture two plurality of images.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. Displays a media capture user interface that includes displaying a representation of the field of view of one or more cameras, and controls that adjust the capture duration to capture the media while the low light camera mode is active. It is said that the control is set to the first capture duration according to the determination that displaying and displaying the control, including the instructions, meet a set of first capture duration criteria. Electronic to capture the first multiple images over the first capture duration in response to a single request to display the indication and capture the images corresponding to the field of view of one or more cameras. The control is longer than the first capture duration, according to the configuration of the device and the determination that a set of second capture duration criteria different from the first set of capture duration criteria is met. Displaying an indication that it is set to a capture duration of 2 and responding to a single request to capture an image corresponding to the field of view of one or more cameras, a second over the second capture duration. Includes configuring an electronic device to capture two plurality of images.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、コントロールを表示することが、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成することと、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The capture duration to capture the media while the low light camera mode is active, displaying the media capture user interface, including displaying a representation of the field of view of one or more cameras through the display device. The control is set to the first capture duration according to the determination that displaying the control to adjust and displaying the control, including the command, meets a set of first capture duration criteria. In response to a single request to display the indication that it is set and to capture the image corresponding to the field of view of one or more cameras, the first multiple images over the first capture duration. The control controls the first capture according to the configuration of the electronic device to capture and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Displaying an indication that the second capture duration is set longer than the duration, and in response to a single request to capture an image corresponding to the field of view of one or more cameras, the second Includes configuring the electronic device to capture a second plurality of images over the capture duration.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、表示デバイスを介して、1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を含み、コントロールを表示する手段が、1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスを構成する手段と、1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、コントロールが第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示する手段と、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスを構成する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device presents a display device, a means of displaying a media capture user interface that includes means of displaying a representation of the field of view of one or more cameras through the display device, and while the low light camera mode is active. , A means of displaying a control that adjusts the capture duration to capture the media, and a means of displaying the control according to the determination that a set of first capture duration criteria is met. A means of displaying an indication that it is set to a capture duration of 1 and a first over the first capture duration in response to a single request to capture an image corresponding to the field of view of one or more cameras. According to the means for configuring the electronic device to capture one plurality of images and the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met. Means to display an indication that the control is set to a second capture duration that is longer than the first capture duration, and respond to a single request to capture an image that corresponds to the field of view of one or more cameras. The electronic device is then configured to capture the second plurality of images over the second capture duration.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することを含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display the camera user interface via a display device, wherein the camera user interface comprises a first representation of a first portion of the field of view of one or more cameras. , A second area that is outside the first area and is visually distinguishable from the first area, where each of the first objects in the field of view of one or more cameras is one or more cameras. A second of the field of view of one or more cameras within the second region, according to the determination that each of the first set of criteria is met, including the criteria that are met as the first distance from A set that includes displaying parts in a first visual appearance and a criterion that each first object in the field of view of one or more cameras is satisfied to be a second distance from one or more cameras. To stop displaying the second part of the field of view of one or more cameras in the second area with the first visual appearance, according to the determination that each of the second criteria is met. Includes displaying a camera user interface, including, including, and a second area.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. The camera user interface is displayed in a first region containing a first representation of a first portion of the field of view of one or more cameras, and outside the first region. A second region that is visually distinct from the first region, where each first object in the field of view of one or more cameras is a first distance from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that each of the first set of criteria, including the criteria that are met, is met. Each set of second criteria includes the criteria for displaying and satisfying that each first object in the field of view of one or more cameras is a second distance from the one or more cameras. A second region, including, within the second region, stopping the display of a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that it is filled. Includes instructions to display the camera user interface, including.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, and the one or more programs pass through the display device. The camera user interface is displayed in a first region containing a first representation of a first portion of the field of view of one or more cameras, and outside the first region. A second region that is visually distinct from the first region, where each first object in the field of view of one or more cameras is a first distance from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that each of the first set of criteria, including the criteria that are met, is met. Each set of second criteria includes the criteria for displaying and satisfying that each first object in the field of view of one or more cameras is a second distance from the one or more cameras. A second region, including, within the second region, stopping the display of a second portion of the field of view of one or more cameras in the first visual appearance, according to the determination that it is filled. Includes instructions to display the camera user interface, including.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. The display of the camera user interface via a display device, wherein the camera user interface comprises a first representation of a first portion of the field of view of one or more cameras, and a first region. A second region that is outside the region and is visually distinguishable from the first region, where each of the first objects in the field of view of one or more cameras is the first from one or more cameras. Within the second region, a second portion of the field of view of one or more cameras, according to the determination that each of the first set of criteria is met, including the criteria that are met for the distance of A set of second, including displaying with one visual appearance and satisfying that each first object in the field of view of one or more cameras is a second distance from one or more cameras. Including, in accordance with the determination that each of the criteria is met, to stop displaying the second portion of the field of view of one or more cameras in the first visual appearance within the second region. Includes instructions to display the camera user interface, including a second area.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域であって、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することと、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device is a means of displaying a camera user interface through a display device, one or more cameras, and a display device, wherein the camera user interface is the first portion of the field of view of the one or more cameras. A first region containing the first representation of, and a second region outside the first region that is visually distinguishable from the first region, within the field of view of one or more cameras. Within the second area, according to the determination that each of the first set of criteria is met, including the criteria that each first object is met as a first distance from one or more cameras. Displaying a second portion of the field of view of one or more cameras with a first visual appearance, and having each of the first objects in the field of view of one or more cameras be second from one or more cameras. A second portion of the field of view of one or more cameras is first placed within the second region according to the determination that each of the second set of criteria is met, including the criteria that are met as distance. Includes, including, a second area, including, and means of displaying the camera user interface.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラとを有する電子デバイスで行われる。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することを含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この方法は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. The method comprises displaying a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level via a display device, wherein the camera user interface is the first. A first region containing a representation of the first portion of the field of view of the first camera at the zoom level of, and a second region containing a representation of the first portion of the field of view of the second camera at the first zoom level. And, including. This method also uses a display device to display one or more camera user interfaces that include a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of the camera to the second zoom level and raising the zoom level of the representation of the field of view of one or more cameras to the second zoom level In response to receiving the first request, in the first region, at the second zoom level, the field of view of the first camera excluding at least one subset of the first part of the field of view of the first camera. To display the representation of the second part of the Instead, in the second region, at the second zoom level, the second of the second camera's field of view overlaps with a subset of the first camera's field of view excluded from the second part of the first camera's field of view. Includes displaying the representation of the second part.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. Stores one or more programs configured to be executed by, and the one or more programs are at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A first region, the camera user interface containing a representation of a first portion of the field of view of the first camera at a first zoom level, and a first region comprising a command to display the camera user interface including the representation of the first. Includes a second region, including a representation of the first portion of the field of view of the second camera at the zoom level of. The non-temporary computer-readable storage medium also displays through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level, and raising the zoom level of the representation of the field of view of one or more cameras to the second. In response to receiving the first request to raise to the zoom level of, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera. Displaying a representation of the second part of the field of view of one camera and, in the second region, a subset of the part of the field of view of the first camera excluded from the second part of the field of view of the first camera. A second region that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera at the second zoom level in the second area without displaying a representation. Includes displaying a representation of a second portion of the camera's field of view.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。非一時的コンピュータ可読記憶媒体は、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium is one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera. Stores one or more programs configured to be executed by, and the one or more programs are at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A first region, the camera user interface containing a representation of a first portion of the field of view of the first camera at a first zoom level, and a first region comprising a command to display the camera user interface including the representation of the first. Includes a second region, including a representation of the first portion of the field of view of the second camera at the zoom level of. The non-temporary computer-readable storage medium also displays through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level, and raising the zoom level of the representation of the field of view of one or more cameras to the second. In response to receiving the first request to raise to the zoom level of, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera. Displaying a representation of the second part of the field of view of one camera and, in the second region, a subset of the part of the field of view of the first camera excluded from the second part of the field of view of the first camera. A second region that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera at the second zoom level in the second area without displaying a representation. Includes displaying a representation of a second portion of the camera's field of view.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示することと、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示することと、を含む。 According to some embodiments, electronic devices are described. This electronic device is executed by a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more processors, and one or more processors. The field of view of one or more cameras, including memory for storing one or more programs configured to be, and one or more programs displayed at a first zoom level via a display device. A first region that includes an instruction to display a camera user interface that includes a representation of at least a portion of the camera user interface that includes a representation of a first portion of the field of view of the first camera at a first zoom level. Includes a second region, including a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device may also display one or more camera user interfaces, including a representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, through the display device. Receiving the first request to raise the zoom level of the representation of the field of view of one or more cameras to the second zoom level and raising the zoom level of the representation of the field of view of one or more cameras to the second zoom level In response to receiving the first request to raise, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera of the first camera. Display a representation of the second portion of the field of view and, in the second region, display a representation of a subset of the field of view of the first camera excluded from the second part of the field of view of the first camera. Without, in the second region, at the second zoom level, the field of view of the second camera that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera. Includes displaying the representation of the second part.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、視野を有する第1のカメラと、第1のカメラの視野よりも広い視野を有する第2のカメラと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段と、を含み、カメラユーザインタフェースが、第1のズームレベルで第1のカメラの視野の第1の部分の表現を含む第1の領域と、第1のズームレベルで第2のカメラの視野の第1の部分の表現を含む第2の領域と、を含む。この電子デバイスは、また、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求を受信したことに応答して、第1の領域において、第2のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野の第2の部分の表現を表示する手段と、第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, a first camera having a field of view, a second camera having a field of view wider than the field of view of the first camera, one or more cameras, and a display device. A means of displaying a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at one zoom level, the camera user interface of the first camera at the first zoom level. It includes a first region containing a representation of the first portion of the field of view and a second region containing a representation of the first portion of the field of view of the second camera at the first zoom level. The electronic device may also display one or more camera user interfaces, including a representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level, through the display device. Means to receive the first request to raise the zoom level of the representation of the field of view of the camera to the second zoom level and the zoom level of the representation of the field of view of one or more cameras to the second zoom level. In response to receiving the first request to raise, in the first region, at the second zoom level, exclude at least one subset of the first portion of the field of view of the first camera of the first camera. A means of displaying a representation of a second portion of the field of view and, in the second region, displaying a representation of a subset of the portion of the field of view of the first camera excluded from the second part of the field of view of the first camera. Without, in the second region, at the second zoom level, the field of view of the second camera that overlaps a subset of the field of view of the first camera that is excluded from the second part of the field of view of the first camera. Includes means for displaying the representation of the second part.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することを含む。この方法は、また、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method is to display through a display device a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. However, the plurality of zooming is included, and the plurality of zoom affordances include displaying a camera user interface including a first zoom affordance and a second zoom affordance. This method also responds to receiving a first gesture directed to one of the multiple affordances and receiving the first gesture while displaying multiple zooming affordances. Then, according to the determination that the first gesture is a gesture directed to the first zoom affordance, the second representation of at least a portion of the field of view of one or more cameras is displayed at the second zoom level. And, according to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more cameras at a third zoom level different from the first zoom level and the second zoom level. Includes displaying a third representation of at least a portion of the field of view.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display, through a display device, a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. Multiple affordances, including multiple zooming, while displaying the camera user interface, including multiple zoom affordances, including a first zoom affordance and a second zoom affordance, and displaying multiple zooming affordances. In response to receiving the first gesture directed to one of them and receiving the first gesture, the first gesture is said to be the gesture directed to the first zoom affordance. According to the determination, at the second zoom level, displaying a second representation of at least a portion of the field of view of one or more cameras, and determining that the first gesture is a gesture directed to a second zoom affordance. Accordingly, it includes instructions to display a third representation of at least a portion of the field of view of one or more cameras at a third zoom level different from the first zoom level and the second zoom level.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display, through a display device, a camera user interface that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. Multiple affordances, including multiple zooming, while displaying the camera user interface, including multiple zoom affordances, including a first zoom affordance and a second zoom affordance, and displaying multiple zooming affordances. In response to receiving the first gesture directed to one of them and receiving the first gesture, the first gesture is said to be the gesture directed to the first zoom affordance. According to the determination, at the second zoom level, displaying a second representation of at least a portion of the field of view of one or more cameras, and determining that the first gesture is a gesture directed to a second zoom affordance. Accordingly, it includes instructions to display a third representation of at least a portion of the field of view of one or more cameras at a third zoom level different from the first zoom level and the second zoom level.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. One or more programs are to display a camera user interface through a display device that includes a first representation of at least a portion of the field of view of one or more cameras displayed at a first zoom level. , The camera user interface includes a plurality of zooming, and the plurality of zoom affordances display a camera user interface including a first zoom affordance and a second zoom affordance, and displays a plurality of zooming affordances. In the meantime, in response to receiving the first gesture directed to one of the multiple affordances and receiving the first gesture, the first gesture is directed to the first zoom affordance. At the second zoom level, the second representation of at least a portion of the field of view of one or more cameras is displayed, and the first gesture is directed to the second zoom before dance, according to the determination that the gesture was made. Displaying a third representation of at least a portion of the field of view of one or more cameras at a third zoom level that is different from the first zoom level and the second zoom level, according to the determination of the gesture. Includes instructions for.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、カメラユーザインタフェースが、複数のズーミングを含み、複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、複数のズーミングアフォーダンスを表示している間に、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、第1のジェスチャを受信したことに応答して、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示する手段と、第1のジェスチャが第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第1のズームレベル及び第2のズームレベルとは異なる第3のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device comprises a display device, one or more cameras, and a first representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A means for displaying an interface, wherein the camera user interface includes a plurality of zooming, and a plurality of zoom affords include a first zoom affordance and a second zoom affordance, and a plurality of means for displaying the camera user interface. While displaying the zooming affordance of, the means of receiving the first gesture directed to one of the multiple affordances and the first gesture in response to receiving the first gesture. A means of displaying a second representation of at least a portion of the field of view of one or more cameras at a second zoom level, and a first gesture, according to the determination that is a gesture directed to the first zoom affordance. A third of at least a portion of the field of view of one or more cameras at a third zoom level that is different from the first zoom level and the second zoom level, according to the determination that the gesture is directed to the second zoom affordance. Including means for displaying the representation of.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイス及び1つ以上のカメラを有する電子デバイスで行われる。この方法は、表示デバイスを介して、カメラユーザインタフェースを表示することを含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この方法は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。この方法は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, the method is described. This method is performed on a display device and an electronic device having one or more cameras. The method comprises displaying the camera user interface via a display device, wherein the camera user interface includes a camera display area containing a representation of the field of view of one or more cameras and one or more in a first location. Includes a camera control area, including a first plurality of camera mode accommodations indicating different operating modes of the camera. This method also detects a first gesture directed at the camera user interface while displaying a first plurality of camera mode adherences indicating different operating modes of one or more cameras. In response to detecting a first gesture directed at the camera user interface, displaying the first set of camera setting affordances in the first place, the first set of camera settings. Affordance is a setting that adjusts the image capture of the first camera mode, displaying a first set of camera setting affordances and multiple camera mode affordances indicating different operating modes of the camera in the first place. Includes stopping the display of. This method also provides while displaying a first set of camera configuration affordances in a first place and while the electronic device is configured to capture media in the first camera mode. A second camera that differs from the first camera mode in response to receiving a second gesture directed to the camera user interface and receiving a second gesture directed to the camera user interface. A second location in the first location without configuring the electronic device to capture the media in the mode and displaying multiple camera mode adherences indicating different operating modes of one or more cameras in the first location. Includes displaying a set of camera settings affordance.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and one or more cameras in a first location. Includes instructions to display the camera user interface, including a camera control area that includes a first plurality of camera mode accommodations indicating different modes of operation. The non-temporary computer-readable storage medium also makes a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. The first is to display a first set of camera setting affordances in the first place in response to the detection and the detection of the first gesture directed at the camera user interface. A set of camera setting affordances is a setting that adjusts the image capture of the first camera mode, displaying the first set of camera setting affordances and showing different operating modes of the cameras in the first place. Includes stopping the display of multiple camera modes affordances. The non-temporary computer-readable storage medium is also configured by the electronic device to capture the media while displaying the first set of camera configuration accommodations in the first place and in the first camera mode. In response to receiving a second gesture directed at the camera user interface and receiving a second gesture directed at the camera user interface, what is the first camera mode? The first without configuring the electronic device to capture media in different second camera modes and displaying multiple camera mode affordances indicating different operating modes of one or more cameras in the first location. Includes displaying a second set of camera settings affordance at the location of.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することの命令を含む。非一時的コンピュータ可読記憶媒体は、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。非一時的コンピュータ可読記憶媒体は、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of a display device and an electronic device with one or more cameras. Is to display the camera user interface through a display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of one or more cameras and one or more cameras in a first location. Includes instructions to display the camera user interface, including a camera control area that includes a first plurality of camera mode accommodations indicating different modes of operation. The non-temporary computer-readable storage medium also makes a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. The first is to display a first set of camera setting affordances in the first place in response to the detection and the detection of the first gesture directed at the camera user interface. A set of camera setting affordances is a setting that adjusts the image capture of the first camera mode, displaying the first set of camera setting affordances and showing different operating modes of the cameras in the first place. Includes stopping the display of multiple camera modes affordances. The non-temporary computer-readable storage medium is also configured by the electronic device to capture the media while displaying the first set of camera configuration accommodations in the first place and in the first camera mode. In response to receiving a second gesture directed at the camera user interface and receiving a second gesture directed at the camera user interface, what is the first camera mode? The first without configuring the electronic device to capture media in different second camera modes and displaying multiple camera mode affordances indicating different operating modes of one or more cameras in the first location. Includes displaying a second set of camera settings affordance at the location of.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、表示デバイスを介して、カメラユーザインタフェースを表示することの命令を含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止することと、を含む。この電子デバイスは、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成することと、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. A camera display area, wherein one or more programs include instructions to display a camera user interface via a display device, the camera user interface includes a representation of the field of view of one or more cameras, and a first. Includes a camera control area that includes a first plurality of camera mode adherences that indicate different operating modes of one or more cameras in place. The electronic device also detects a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. In response to detecting the first gesture directed at the camera user interface, the first set of camera settings affordance is displayed in the first place, the first set of cameras. The setting affordance is a setting that adjusts the image capture of the first camera mode, displaying a first set of camera setting affordances and multiple camera modes indicating different operating modes of the camera in the first place. Includes stopping the display of affordance. The electronic device may also be configured to capture media in the first camera mode while displaying a first set of camera configuration affordances in a first location. In response to receiving a second gesture directed to the camera user interface and receiving a second gesture directed to the camera user interface, a second different from the first camera mode. The first location without configuring the electronic device to capture the media in camera mode and displaying multiple camera mode adherences indicating different operating modes of one or more cameras in the first location. Includes displaying a set of 2 camera setting affordances.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラと、表示デバイスを介して、カメラユーザインタフェースを表示する手段と、を含み、カメラユーザインタフェースが、1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、第1の場所で1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む。この電子デバイスは、また、1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを表示している間に、カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して、第1の場所で第1の1組のカメラ設定アフォーダンスを表示する手段であって、第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示する手段と、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンスの表示を停止する手段と、を含む。この電子デバイスは、また、第1の場所で第1の1組のカメラ設定アフォーダンスを表示している間に、及び第1のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように電子デバイスを構成する手段と、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンスを表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンスを表示する手段と、を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more cameras, and means for displaying the camera user interface through the display device, the camera user interface including a representation of the field of view of one or more cameras. It includes a camera display area and a camera control area that includes a first plurality of camera mode accommodations that indicate different operating modes of one or more cameras in a first place. The electronic device also serves as a means of detecting a first gesture directed at the camera user interface while displaying a first plurality of camera mode accommodations indicating different operating modes of one or more cameras. , A means of displaying a first set of camera setting affordances in a first place in response to detecting a first gesture directed at the camera user interface, the first set of cameras. The setting affordance is a setting for adjusting the image capture of the first camera mode, a means for displaying the first set of camera setting affordances, and a plurality of camera modes indicating different operating modes of the cameras in the first place. Includes means to stop the display of affordance. The electronic device may also be configured to capture media in the first camera mode while displaying a first set of camera configuration affordances in a first location. In response to receiving the second gesture directed at the camera user interface and the second gesture directed at the camera user interface, a second different from the first camera mode. A first place without displaying a means of configuring the electronic device to capture media in camera mode and multiple camera mode adherences indicating different operating modes of one or more cameras in the first place. Includes means for displaying a set of 2 camera setting affordances.
いくつかの実施形態によれば、方法が記載される。この方法は、表示デバイスを有する電子デバイスで行われる。この方法は、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、を含む。 According to some embodiments, the method is described. This method is performed on an electronic device that has a display device. This method comprises previously captured media containing first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. A display device according to the determination that the automatic media correction criteria are met in response to receiving a request to display the representation of the item and receiving a request to display the representation of the previously captured media item. Through the display device, according to the display of the representation of previously captured media items, including the first content and the combination of the second content, and the determination that the automatic media correction criteria are not met. , Includes displaying a representation of a previously captured media item that includes the first content and does not include the second content.
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, non-temporary computer-readable storage media are described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being one or more. Request to display a representation of previously captured media items, including first content from the first part of the camera's field of view and second content from the second part of the camera's field of view. The first content through the display device, according to the determination that the automatic media correction criteria are met, in response to receiving and receiving a request to display a representation of a previously captured media item. And, according to the display of the representation of the previously captured media item containing the combination of the second content and the determination that the automatic media correction criteria are not met, the first content is included via the display device. It also includes instructions to display a representation of previously captured media items that do not contain a second content.
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, a temporary computer-readable storage medium is described. A non-temporary computer-readable storage medium stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device, the one or more programs being one or more. Request to display a representation of previously captured media items, including first content from the first part of the camera's field of view and second content from the second part of the camera's field of view. The first content through the display device, according to the determination that the automatic media correction criteria are met, in response to receiving and receiving a request to display a representation of a previously captured media item. And, according to the display of the representation of the previously captured media item containing the combination of the second content and the determination that the automatic media correction criteria are not met, the first content is included via the display device. It also includes instructions to display a representation of previously captured media items that do not contain a second content.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムが、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することと、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む。 According to some embodiments, electronic devices are described. The electronic device includes a display device, one or more processors, and a memory that stores one or more programs configured to be executed by the one or more processors. Representation of previously captured media items, including first content from the first part of the field of view of one or more cameras and second content from the second part of the field of view of one or more cameras. In response to receiving a request to display a request to display a representation of a previously captured media item, through the display device according to the determination that the automatic media correction criteria are met. The first through the display device, according to the display of the representation of previously captured media items, including the first content and the combination of the second content, and the determination that the automatic media correction criteria are not met. Includes instructions to display a representation of a previously captured media item that includes the content of and does not include the second content.
いくつかの実施形態によれば、電子デバイスが記載される。この電子デバイスは、表示デバイスと、1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び1つ以上のカメラの視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、自動メディア補正基準が満たされているという判定に従って、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示する手段と、自動メディア補正基準が満たされていないという判定に従って、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示する手段と、を含む。 According to some embodiments, electronic devices are described. This electronic device previously comprises a display device and first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of one or more cameras. The automatic media correction criteria are met in response to receiving a request to display a representation of a previously captured media item and a request to display a representation of a previously captured media item. According to the determination, according to the means of displaying the representation of the previously captured media item, including the first content and the combination of the second content, through the display device, and according to the determination that the automatic media correction criteria are not met. A means of displaying, through a display device, a representation of a previously captured media item that includes the first content and does not include the second content.
これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。 Executable instructions that perform these functions are optionally contained within a non-temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors. Executable instructions that perform these functions are optionally contained within a temporary computer-readable storage medium or other computer program product configured to be executed by one or more processors.
このため、メディアをキャプチャ及び管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、このようなデバイスの有効性、効率、及びユーザ満足度が増す。このような方法及びインタフェースは、メディアをキャプチャ及び管理するための他の方法を補完するか、又は置き換えることができる。 This provides devices with faster, more efficient methods and interfaces for capturing and managing media, thereby increasing the effectiveness, efficiency, and user satisfaction of such devices. Such methods and interfaces can complement or replace other methods for capturing and managing media.
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。 The following description describes exemplary methods, parameters, and the like. However, it should be recognized that such description is not intended as a limitation to the scope of the present disclosure and is instead provided as a description of an exemplary embodiment.
メディアをキャプチャ及び管理する効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。このような技術は、メディアを管理するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及び電池の電力を低減させることができる。 There is a need for electronic devices that provide efficient methods and interfaces for capturing and managing media. Such a technique can reduce the cognitive burden on the user who manages the media, thereby increasing productivity. Moreover, such techniques can reduce processor and battery power that would otherwise be wasted on redundant user input.
以下に、図1A〜図1B、図2、図3、図4A〜図4B、及び図5A〜図5Hは、イベント通知を管理する技法を行うための例示的なデバイスの説明を提供する。 Below, FIGS. 1A-1B, 2, 3, 4, 4A-4B, and 5A-5H provide a description of exemplary devices for performing techniques for managing event notifications.
図6A〜図6Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図7A〜図7Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。図6A〜図6Vのユーザインタフェースは、図7A〜図7Cのプロセスを含む後述するプロセスを示すために使用される。 6A-6V show exemplary techniques and exemplary user interfaces for accessing media controls using electronic devices according to some embodiments. 7A-7C are flow diagrams illustrating methods for accessing media controls using electronic devices according to some embodiments. The user interface of FIGS. 6A-6V is used to indicate a process described below that includes the process of FIGS. 7A-7C.
図8A〜図8Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的な技術及び例示的なユーザインタフェースを示す。図9A〜図9Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。図8A〜図8Vのユーザインタフェースは、図9A〜図9Cのプロセスを含む後述のプロセスを示すために使用される。 8A-8V show exemplary techniques and exemplary user interfaces for displaying media controls using electronic devices according to some embodiments. 9A-9C are flow diagrams illustrating methods for displaying media controls using electronic devices according to some embodiments. The user interface of FIGS. 8A-8V is used to indicate a process described below that includes the process of FIGS. 9A-9C.
図10A〜図10Kは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的な技術及び例示的なユーザインタフェースを示す。図11A〜図11Cは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。図10A〜図10Kのユーザインタフェースは、図11A〜図11Cのプロセスを含む後述のプロセスを示すために使用される。 10A-10K show exemplary techniques and exemplary user interfaces for displaying a camera field of view using electronic devices according to some embodiments. 11A-11C are flow diagrams illustrating a method for displaying a camera field of view using electronic devices according to some embodiments. The user interface of FIGS. 10A-10K is used to indicate a process described below that includes the process of FIGS. 11A-11C.
図12A〜図12Kは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的な技術及び例示的なユーザインタフェースを示す。図13A〜図13Bは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。図12A〜図12Kのユーザインタフェースは、図13A〜図13Bのプロセスを含む後述のプロセスを示すために使用される。 12A-12K show exemplary techniques and exemplary user interfaces for accessing media items using electronic devices according to some embodiments. 13A-13B are flow diagrams illustrating methods for accessing media items using electronic devices according to some embodiments. The user interface of FIGS. 12A-12K is used to indicate a process described below that includes the process of FIGS. 13A-13B.
図14A〜図14Uは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的な技術及び例示的なユーザインタフェースを示す。図15A〜図15Cは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。図14A〜図14Uのユーザインタフェースは、図15A〜図15Cのプロセスを含む後述のプロセスを示すために使用される。 14A-14U show exemplary techniques and exemplary user interfaces for modifying media items using electronic devices according to some embodiments. 15A-15C are flow diagrams illustrating methods for modifying media items using electronic devices according to some embodiments. The user interface of FIGS. 14A-14U is used to indicate a process described below that includes the process of FIGS. 15A-15C.
図16A〜図16Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的な技術及び例示的なユーザインタフェースを示す。図17A〜図17Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図16A〜図16Qのユーザインタフェースは、図17A〜図17Bのプロセスを含む後述のプロセスを示すために使用される。 16A-16Q show exemplary techniques and exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. 17A-17B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. The user interface of FIGS. 16A-16Q is used to indicate a process described below that includes the process of FIGS. 17A-17B.
図18A〜図18Xは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的な技術及び例示的なユーザインタフェースを示す。図19A〜図19Bは、いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。図20A〜図20Cは、いくつかの実施形態による電子デバイスを使用して光条件に対応するための方法を示すフロー図である。図21A〜図21Cは、いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。図18A〜図18Xのユーザインタフェースは、図19A〜図19B、図20A〜図20C、及び図21A〜図21Cのプロセスを含む後述するプロセスを示すために使用される。 18A-18X show exemplary techniques and exemplary user interfaces for managing media using electronic devices according to some embodiments. 19A-19B are flow diagrams illustrating methods for changing the frame rate using electronic devices according to some embodiments. 20A-20C are flow diagrams illustrating methods for addressing light conditions using electronic devices according to some embodiments. 21A-21C are flow diagrams illustrating methods for providing camera indications using electronic devices according to some embodiments. The user interface of FIGS. 18A-18X is used to indicate a process described below that includes the processes of FIGS. 19A-19B, 20A-20C, and 21A-21C.
図22A〜図22AMは、いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図23A〜図23Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図22A〜図22AMのユーザインタフェースは、図23A〜図23Bのプロセスを含む後述のプロセスを示すために使用される。 22A-22AM show exemplary user interfaces for editing captured media according to some embodiments. 23A-23B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. The user interface of FIGS. 22A-22AM is used to indicate a process described below that includes the process of FIGS. 23A-23B.
図24A〜図24ABは、いくつかの実施形態によるキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。図25A〜図25Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。図24A〜図24ABのユーザインタフェースは、図25A〜図25Bのプロセスを含む後述のプロセスを示すために使用される。 24A-24AB show exemplary user interfaces for editing captured media according to some embodiments. 25A-25B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments. The user interface of FIGS. 24A to 24AB is used to indicate a process described below that includes the process of FIGS. 25A to 25B.
図26A〜図26Uは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。図27A〜図27Cは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。図28A〜図28Bは、メディアをキャプチャする間にガイダンスを提供するための方法を示すフロー図である。図26A〜図26Uのユーザインタフェースは、図27A〜図27C及び図28A〜図28Bのプロセスを含む後述のプロセスを示すために使用される。 26A-26U show exemplary user interfaces for managing media using electronic devices according to some embodiments. 27A-27C are flow diagrams illustrating methods for managing media using electronic devices according to some embodiments. 28A-28B are flow diagrams illustrating a method for providing guidance while capturing media. The user interface of FIGS. 26A-26U is used to indicate a process described below that includes the processes of FIGS. 27A-27C and 28A-28B.
図29A〜図29Pは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。図30A〜図30Cは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。図29A〜図29Pのユーザインタフェースは、図30A〜図30Cのプロセスを含む後述のプロセスを示すために使用される。 29A-29P show exemplary user interfaces for managing controlled media captures using electronic devices with multiple cameras according to some embodiments. 30A-30C are flow diagrams illustrating a method for managing controlled media capture using an electronic device with a plurality of cameras according to some embodiments. The user interface of FIGS. 29A-29P is used to indicate a process described below that includes the process of FIGS. 30A-30C.
図31A〜図31Iは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。図32A〜図32Cは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。図31A〜図31Iのユーザインタフェースは、図32A〜図32Cのプロセスを含む後述のプロセスを示すために使用される。 31A-31I show exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of electronic devices according to some embodiments. 32A-32C are flow diagrams illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments. The user interface of FIGS. 31A-31I is used to indicate a process described below that includes the process of FIGS. 32A-32C.
図33A〜図33Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。図34A〜図34Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。図33A〜図33Qのユーザインタフェースは、図34A〜図34Bのプロセスを含む後述のプロセスを示すために使用される。 33A-33Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. 34A-34B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments. The user interface of FIGS. 33A-33Q is used to indicate a process described below that includes the process of FIGS. 34A-34B.
図35A〜図35Iは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。図36A〜図36Bは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための方法を示すフロー図である。図35A〜図35Iのユーザインタフェースは、図36A〜図36Bのプロセスを含む後述のプロセスを示すために使用される。 35A-35I show exemplary user interfaces for accessing media capture controls using electronic devices according to some embodiments. 36A-36B are flow diagrams illustrating methods for accessing media capture controls using electronic devices according to some embodiments. The user interface of FIGS. 35A-35I is used to indicate a process described below that includes the process of FIGS. 36A-36B.
図37A〜図37AAは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。図38A〜図38Cは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための方法を示すフロー図である。図37A〜図37AAのユーザインタフェースは、図38A〜図38Cのプロセスを含む後述のプロセスを示すために使用される。 37A-37AA show an exemplary user interface for automatically adjusting captured media using electronic devices according to some embodiments. 38A-38C are flow diagrams illustrating methods for automatically adjusting captured media using electronic devices according to some embodiments. The user interface of FIGS. 37A-37AA is used to indicate a process described below that includes the process of FIGS. 38A-38C.
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。 In the following description, terms such as "first" and "second" are used to describe the various elements, but these elements should not be limited by those terms. These terms are used only to distinguish one element from another. For example, the first touch can be referred to as the second touch and similarly the second touch can be referred to as the first touch without departing from the scope of the various embodiments described. Both the first touch and the second touch are touches, but they are not the same touch.
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。 The terminology used in the description of the various embodiments described herein is for the sole purpose of describing a particular embodiment and is not intended to be limiting. In the description of the various embodiments described and the appended claims, the singular forms "a (one, one)", "an (one, one)", and "the (that, this)" are , The plural is intended to be included as well, unless otherwise explicitly stated in the context. Also, as used herein, it is understood that the term "and / or" refers to and includes any and all possible combinations of one or more of the related listed items. I want to be. The terms "inclusions", "inclusions", "comprises", and / or "comprising", as used herein, are the features described. Specifies the existence of integers, steps, actions, elements, and / or components, but the presence or addition of one or more other features, integers, steps, actions, elements, components, and / or groups thereof. It will be further understood not to exclude.
「〜の場合(if)」という用語は、任意選択的に、文脈に応じて、「〜とき(when)」若しくは「〜とき(upon)」、又は「〜と判定したことに応じて(in response to determining)」若しくは「〜を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「〜と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応じて、「〜と判定したとき(upon determining)」若しくは「〜と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈される。 The term "if" is optional, depending on the context, "when" or "upon", or "in". It is interpreted to mean "response to determining" or "in response to detecting". Similarly, the phrase "if it is determined" or "if [a stated condition or event] is detected" is optional. In response to the context, "upon determining" or "in response to determining", or "[state or event] is detected. (Upon detecting [the stated condition or event]) "or" in response to detecting [the stated condition or event] ".
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。 Electronic devices, user interfaces for such devices, and embodiments of related processes using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functions such as a PDA function and / or a music player function. An exemplary embodiment of a portable multifunction device is Apple Inc., Cupertino, CA. Devices such as, but not limited to, iPhone®, iPod Touch®, and iPad® from. Optionally, other portable electronic devices such as laptops or tablet computers with touch sensitive surfaces (eg, touch screen displays and / or touchpads) are also used. It should also be understood that in some embodiments, the device is not a portable communication device, but a desktop computer having a touch sensitive surface (eg, a touch screen display and / or a touch pad).
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。 The following discussion describes electronic devices including displays and touch sensitive surfaces. However, it should be understood that electronic devices optionally include one or more other physical user interface devices such as physical keyboards, mice, and / or joysticks.
デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。 Devices typically include drawing applications, presentation applications, word processing applications, website creation applications, disk authoring applications, spreadsheet applications, gaming applications, phone applications, video conferencing applications, email applications, instant messaging applications, and training. It supports a variety of applications such as support applications, photo management applications, digital camera applications, digital video camera applications, web browsing applications, digital music player applications, and / or one or more of digital video player applications.
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。 Various applications running on the device optionally use at least one common physical user interface device, such as a touch sensitive surface. One or more functions of the touch-sensitive surface, as well as the corresponding information displayed on the device, are optionally adjusted and / or modified on a per-application basis and / or within each application. Thus, the device's common physical architecture (such as touch-sensitive surfaces) optionally supports a variety of applications with user interfaces that are intuitive and transparent to the user.
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態によるタッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
Here, attention is paid to an embodiment of a portable device including a touch-sensitive display. FIG. 1A is a block diagram showing a
本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、特定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を特定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超過したかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。 As used herein and in the claims, the term "strength" of contact on a touch-sensitive surface refers to the force or pressure (force per unit area) of contact on the touch-sensitive surface (eg, finger contact), or. Refers to a proxy for the force or pressure of contact on the touch sensing surface. The contact strength has a range of values, including at least four distinct values, and more typically hundreds (eg, at least 256) of distinct values. Contact strength is optionally specified (or measured) using different techniques and different sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch sensitive surface are optionally used to measure forces at various points on the touch sensitive surface. In some implementations, force measurements from multiple force sensors are combined to determine the estimated force of contact (eg, weighted average). Similarly, the pressure sensitive tip of the stylus is optionally used to identify the pressure of the stylus on the touch sensitive surface. Alternatively, the size and / or its change of the contact area detected on the touch sensing surface, the capacitance and / or its change of the touch sensing surface close to the contact, and / or the resistance of the touch sensing surface close to the contact and / Or its variation is optionally used as a substitute for contact force or pressure on the touch sensitive surface. In some implementations, the alternative measurement for contact force or pressure is used directly to determine if the intensity threshold is exceeded (eg, the intensity threshold is the unit corresponding to the alternative measurement). Described in). In some embodiments, the surrogate measurement for contact force or pressure is converted to an estimated force or pressure, which is used to determine if the estimated force or pressure has exceeded the strength threshold ( For example, the intensity threshold is a pressure threshold measured in units of pressure). By using the strength of contact as an attribute of user input, to display affordances (eg, on a touch-sensitive display) and / or user input (eg, touch-sensitive display, touch-sensitive surface, or, etc.) It is normally inaccessible to the user on a reduced size device that has a limited area to receive (via a physical / mechanical control such as a knob or button). Allows users access to the additional device features they get.
本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。 As used herein and in the claims, the term "tactile output" is the physical displacement of a device with respect to the device's previous position, which will be detected by the user by the user's tactile sensation. Refers to the physical displacement of a component (eg, touch-sensitive surface) of the device with respect to another component (eg, housing) of the device, or the displacement of the component with respect to the center of mass of the device. For example, in situations where the device or a component of the device is in contact with a touch-sensitive user's surface (eg, the finger, palm, or other part of the user's hand), the tactile sensation generated by physical displacement. The output will be interpreted by the user as a tactile sensation that corresponds to a perceived change in the physical properties of the device or its components. For example, the movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down-click" or "up-click" of a physical actuator button. In some cases, the user "down-clicks" or "up-clicks" even when there is no movement of the physical actuator button associated with the touch-sensitive surface physically pressed (eg, displaced) by the user's actions. I feel the tactile sensation. As another example, the movement of the touch-sensitive surface is optionally interpreted or perceived by the user as the "roughness" of the touch-sensitive surface, even if the smoothness of the touch-sensitive surface does not change. NS. The interpretation of touch by such a user depends on the user's personal sensory perception, but there are many sensory perceptions of touch that are common to the majority of users. Therefore, if the tactile output is described as corresponding to a particular sensory perception of the user (eg, "up-click", "down-click", "roughness"), the generated tactile sensation, unless otherwise stated. Intellectual output corresponds to the physical displacement of a device, or component of a device, that produces a typical (or average) user's described sensory cognition.
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。
The
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
The memory 102 optionally includes a high speed random access memory and optionally a non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. The
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実施される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
The
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution, Data-Only、EV−DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC−HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W−CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi−Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi−MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
The RF (radio frequency)
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
The
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくは制御デバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替実施形態では、入力コントローラ160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。
The I /
全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押下は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押下は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実施するために使用される。
U.S. Patent Application No. 11 / 322,549, filed December 23, 2005, "Unlocking a Device by Gestures on an Unlock Image," U.S. Patent No. 7, incorporated herein by reference in its entirety. As described in 657,849, a quick press of the push button optionally disengages the
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
The touch-
タッチスクリーン112は、触覚及び/又は触知接触に基づいてユーザからの入力を受信するタッチ感知面、センサ、又は1組のセンサを有する。タッチスクリーン112及びディスプレイコントローラ156は(あらゆる関連モジュール及び/又はメモリ102内の命令セットとともに)、タッチスクリーン112上の接触(及び接触のあらゆる動き又は中断)を検出し、検出した接触を、タッチスクリーン112上に表示されるユーザインタフェースオブジェクトとの対話(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
The
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
The
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024A1号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかしながら、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。
The touch-sensitive displays in some embodiments of the
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode−Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch−Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi−Functional Hand−Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。
Touch-sensitive displays in some embodiments of the
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指に基づく粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
The
一部の実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、装置のタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。
In some embodiments, in addition to the touch screen, the
デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
The
また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補型金属酸化膜半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面には位置し、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。
The
デバイス100はまた、任意選択的に、1つ以上の深度カメラセンサ175を含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内の対象物(例えば、顔面)の3次元モデルを作成する。一部の実施形態では、撮像モジュール143(カメラモジュールとも呼ばれるもの)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の種々の部分の深度マップを決定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、深度情報を有するユーザの画像が、任意選択的に、テレビ会議のために取得されるように、及び、深度マップデータを有する自撮り画像をキャプチャするように、デバイス100の前面に深度カメラセンサが配置されている。一部の実施形態では、深度カメラセンサ175は、デバイスの背面に、あるいはデバイス100の背面及び前面に配置されている。いくつかの実施形態では、深度カメラセンサ175の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイとともに、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。
The
一部の実施形態では、深度マップ(例えば、深度マップ画像)は、視点(例えば、カメラ、光センサ、深度カメラセンサ)からのシーン内の対象物の距離に関する情報(例えば、値)を含む。深度マップの一実施形態では、各深度ピクセルは、その対応する2次元ピクセルが位置している、その視点のZ軸における位置を定義するものである。一部の実施形態では、深度マップはピクセルで構成されており、各ピクセルは、値(例えば、0〜255)によって定義される。例えば、値「0」は、「3次元」シーン内で最も遠い場所に位置しているピクセルを表し、値「255」は、その「3次元」シーン内で視点(例えば、カメラ、光センサ、深度カメラセンサ)の最も近くに位置しているピクセルを表す。他の実施形態では、深度マップは、シーン内の対象物と視点の平面との間の距離を表す。一部の実施形態では、深度マップは、深度カメラから見た、関心対象物の様々な特徴部の相対深度(例えば、ユーザの顔面の目、鼻、口、耳の相対深度)に関する情報を含む。一部の実施形態では、深度マップは、z方向での関心対象物の輪郭をデバイスが決定することを可能にする、情報を含む。 In some embodiments, the depth map (eg, depth map image) includes information (eg, values) about the distance of an object in the scene from a viewpoint (eg, camera, light sensor, depth camera sensor). In one embodiment of the depth map, each depth pixel defines the position of its viewpoint on the Z axis where its corresponding 2D pixel is located. In some embodiments, the depth map consists of pixels, each pixel being defined by a value (eg 0-255). For example, the value "0" represents the farthest pixel in the "three-dimensional" scene, and the value "255" represents the viewpoint (eg, camera, optical sensor, etc.) in the "three-dimensional" scene. Represents the pixel closest to the depth camera sensor). In other embodiments, the depth map represents the distance between an object in the scene and the plane of the viewpoint. In some embodiments, the depth map contains information about the relative depth of various features of the object of interest as seen by the depth camera (eg, the relative depth of the user's facial eyes, nose, mouth, ears). .. In some embodiments, the depth map contains information that allows the device to determine the contour of the object of interest in the z direction.
また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗歪みゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に位置するタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置する。
The
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、近接センサは、多機能デバイスがユーザの耳付近に配置されたとき(例えば、ユーザが電話をかけているとき)、タッチスクリーン112をオフにして無効化する。
The
また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に位置するタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置する。
The
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration−based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100の場所及び向き(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
The
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占有しているかを示すディスプレイ状態、デバイスの様々なセンサ及び入力コントロールデバイス116から入手した情報を含むセンサ状態、並びにデバイスの場所及び/又は姿勢に関する場所情報のうちの1つ以上を含む。
In some embodiments, the software components stored in the memory 102 are the
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェアとソフトウェア構成要素との間の通信を容易にする。 Operating system 126 (eg, Darwin®, RTXC®, LINUX®, UNIX®, OS X®, iOS®, WINDOWS®, or Embedded operating systems such as VxWorks® include various software components and / or drivers that control and manage normal system tasks (eg, memory management, storage device control, power management, etc.). Facilitates communication between various hardware and software components.
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
The
接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたかを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するかを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したかを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行する、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
The contact /
いくつかの実施形態では、接触/動きモジュール130は、1つ以上の強度閾値のセットを使用して、ユーザによって操作が実行されたかどうかを判定する(例えば、ユーザがアイコン上で「クリック」したかどうかを判定する)。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の所定の閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザは、1組の強度閾値の1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。
In some embodiments, the contact /
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質上同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
The contact /
グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的特性)を変化させる構成要素を含めて、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な知られているソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
The
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データとともに、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
In some embodiments, the
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。
The
テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
The
GPSモジュール135は、デバイスの位置を判定し、この情報を様々なアプリケーションで使用するために(例えば、位置に基づくダイヤル発呼で使用するために電話138へ、画像/ビデオのメタデータとしてカメラ143へ、並びに、天気ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作るウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
● Contact Module 137 (sometimes called address book or contact list),
●
●
●
● Instant messaging (IM)
●
●
●
● Video player module,
● Music player module,
●
●
● Arbitrarily meteorological widget 149-1, stock price widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other widgets obtained by the user, as well as user-created widgets.
●
●
● Video and
●
●
●
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
Examples of
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。
In conjunction with the
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
In conjunction with the
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連動して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)の作成、トレーニングセンサ(スポーツデバイス)との通信、トレーニングセンサデータの受信、トレーニングをモニタするために使用されるセンサの較正、トレーニングのための音楽の選択及び再生、並びに、トレーニングデータの表示、記憶、及び送信のための実行可能な命令を含む。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、カレンダモジュール148は、ユーザ命令に従ってカレンダ及びカレンダに関連付けられたデータ(例えば、カレンダ入力、やることリストなど)を作成、表示、修正、及び記憶するための実行可能な命令を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language;ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets;カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language:拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連動して、ビデオ及び音楽プレーヤモジュール152は、ユーザがMP3若しくはAACファイルなどの1つ以上のファイル形式で記憶されている記録された音楽及び他のサウンドファイルをダウンロード及び再生することを可能にする実行可能な命令、並びにビデオを表示、提示、又は他の方法で(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部ディスプレイ上に)再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、やることリストなどを作成及び管理するための実行可能な命令を含む。
In conjunction with the
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。
In conjunction with the
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。
Online in conjunction with
上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実施される方法及び他の情報処理方法)を実行する1組の実行可能な命令に対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
Each of the modules and applications identified above performs one or more of the functions described above and the methods described in this application (eg, computer-implemented methods and other information processing methods described herein). Corresponds to a set of executable instructions. These modules (eg, instruction sets) do not need to be implemented as separate software programs, procedures, or modules, and therefore, in various embodiments, various subsets of these modules are optionally combined. Or otherwise reconstructed. For example, the video player module is optionally combined with the music player module into a single module (eg, the video and
いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
In some embodiments, the
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
A set of predetermined functions performed only through the touch screen and / or touch pad optionally includes navigation between user interfaces. In some embodiments, the touchpad navigates the
図1Bは、いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136−1(例えば、前述のアプリケーション137〜151、155、380〜390のうちのいずれか)とを含む。 FIG. 1B is a block diagram showing exemplary components for event handling according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) is the event sorter 170 (eg, in operating system 126) and the respective application 136-1 (eg, applications 137-151 described above). 155, any of 380 to 390) and.
イベントソータ170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136−1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112上に表示される現在のアプリケーションビューを示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を決定するためにイベントソータ170によって使用される。
The
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開するときに使用される再開情報、アプリケーション136−1によって表示されている又は表示される準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。
In some embodiments, the application
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
The event monitor 171 receives event information from the
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
In some embodiments, the
いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
In some embodiments, the
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
The hit
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of the user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch-based gestures occur. The application view (of each application) for which touch is detected optionally corresponds to the program hierarchy of the application or the program level within the view hierarchy. For example, the lowest level view where a touch is detected is optionally called a hit view, and a set of events that are recognized as appropriate inputs are optionally the initial to initiate a touch gesture. Determined at least in part based on the hit view of the touch.
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定された後、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
The hit
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連するエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
The active event recognition
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。
The
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替として、アプリケーション136−1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。
In some embodiments, the
いくつかの実施形態では、アプリケーション136−1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136−1が方法及び他の属性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、対応するイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を利用し又は呼び出して、アプリケーション内部状態192を更新する。別法として、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177及びGUIアップデータ178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。
In some embodiments, application 136-1 provides a plurality of
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
Each
イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベントについての情報、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
The
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187−1)及びイベント2(187−2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの動き、タッチの取り消し、及び複数のタッチを含む。一例では、イベント1(187−1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の例では、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクトのタッチ(又は接触)、タッチ感知ディスプレイ112におけるタッチの動き、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントはまた、1つ以上の関連付けられたイベントハンドラ190に関する情報を含む。
The
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に、3つのユーザインタフェースオブジェクトが表示されているアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのいずれが、そのタッチ(サブイベント)と関連付けられているかを判定するために、ヒットテストを実行する。表示された各オブジェクトが、対応するイベントハンドラ190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。
In some embodiments, the event definition 187 includes an event definition for each user interface object. In some embodiments, the
いくつかの実施形態では、それぞれのイベント(187)に対する定義はまた、サブイベントシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の伝送を遅延する遅延アクションを含む。 In some embodiments, the definition for each event (187) also includes a delayed action that delays the transmission of event information until after it has been determined whether the sub-event sequence corresponds to the event type of the event recognizer. include.
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
When each
いくつかの実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
In some embodiments, the
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベントハンドラ190は、そのフラグを捕らえ、既定のプロセスを実行する。
In some embodiments, each
いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベントハンドラに、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定の処理を実行する。
In some embodiments, the
いくつかの実施形態では、データアップデータ176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新する、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
In some embodiments, the data updater 176 creates and updates the data used in application 136-1. For example, the data updater 176 updates the phone number used by the
いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, the event handler (s) 190 includes or has access to a data updater 176, an object updater 177, and a GUI updater 178. In some embodiments, the data updater 176, object updater 177, and GUI updater 178 are contained in a single module of application 136-1 or application view 191 respectively. In other embodiments, they are included in two or more software modules.
タッチ感知ディスプレイ上のユーザタッチのイベント処理に関する上記の論考は、入力デバイスを有する多機能デバイス100を動作させるためのユーザ入力の他の形態にも当てはまり、それらのユーザ入力は、必ずしも全てがタッチスクリーン上で開始されるとは限らないことが理解されよう。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の動き、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の動き、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
The above discussion of user touch event handling on touch-sensitive displays also applies to other forms of user input for operating the
図2は、いくつかの実施形態によるタッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、任意選択的に、1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上向き、及び/若しくは下向き)、並びに/又はデバイス100と接触した指のロール(右から左、左から右、上向き、及び/若しくは下向き)を含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
FIG. 2 shows a
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。別法として、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実施される。
The
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。
In some embodiments, the
図3は、いくつかの実施形態によるディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を備える入出力(I/O)インタフェース330を含み、ディスプレイ340は、典型的には、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
FIG. 3 is a block diagram of an exemplary multifunctional device having a display and a touch sensitive surface according to some embodiments. The device 300 does not have to be portable. In some embodiments, the device 300 is a laptop computer, desktop computer, tablet computer, multimedia playback device, navigation device, educational device (such as a children's learning toy), gaming system, or control device (eg, home). Computer for business use or business use). The device 300 typically has one or more processing units (CPUs) 310, one or more networks or
図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する1組の命令に対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the above-specified elements of FIG. 3 is optionally stored in one or more of the aforementioned memory devices. Each module identified above corresponds to a set of instructions that perform the functions described above. The modules or programs identified above (eg, instruction sets) need not be implemented as separate software programs, procedures, or modules, so in various embodiments, various subsets of these modules are optional. , Combined, or otherwise reconstructed. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not described above.
次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。
Next, attention is paid to an embodiment of a user interface optionally implemented, for example, on the
図4Aは、いくつかの実施形態によるポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149−2のアイコン434、
○「地図」のラベル付けされた、地図モジュール154のためのアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149−1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149−4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に対する設定へのアクセスを提供する「設定」のラベル付きの設定アプリケーション又はモジュールのためのアイコン446。
FIG. 4A shows an exemplary user interface of a menu of applications on a
● Signal strength indicator (s) for wireless communication (s) such as cellular and Wi-Fi signals 402,
● Time 404,
●
●
●
The icon 416 of the
The icon 418 of the
○ Icon 420 for
○
○
○
○ Weather widget 149-1
○ Alarm clock widget 149-4
○ Icon 442 of the
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」と表示される、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
Note that the icon label shown in FIG. 4A is merely an example. For example, the
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。
FIG. 4B is an example on a device (eg, device 300 of FIG. 3) having a touch sensing surface 451 (eg, tablet or
以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
Some of the examples below are given with reference to the inputs on the touch screen display 112 (where the touch sensing surface and display are combined), but in some embodiments the device is shown in FIG. 4B. Detects inputs on the touch-sensitive surface separate from the display shown. In some embodiments, the touch sensitive surface (eg, 451 in FIG. 4B) is the primary axis (eg, FIG. 4B) corresponding to the primary axis (eg, 453 in FIG. 4B) on the display (eg, 450). 452). According to these embodiments, the device is at a location corresponding to each location on the display (eg, in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470) with the
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、いくつかの実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 In addition, the following examples are given primarily with reference to finger input (eg, finger contact, finger tap gesture, finger swipe gesture), but in some embodiments, one or more of the finger inputs , It should be understood that it can be replaced by input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced by a mouse click (eg, instead of a contact) followed by a cursor move along the swipe path (eg, instead of a touch move). As another example, tap gestures are optionally replaced with mouse clicks while the cursor is over the position of the tap gesture (eg, detect a contact and then stop detecting the contact). instead). Similarly, it is understood that when multiple user inputs are detected simultaneously, multiple computer mice are optionally and simultaneously used, or mouse and finger contact is optionally and simultaneously used. sea bream.
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A〜4B)に関して説明する特徴のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下タッチスクリーン504を有する。タッチスクリーン504に対する別法又は追加として、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
FIG. 5A shows an exemplary personal
タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。 Exemplary techniques for detecting and processing touch intensities are, for example, published as International Patent No. WO / 2013/169849, each incorporated herein by reference in its entirety, filed May 8, 2013. International Patent Application No. PCT / US2013 / 040061, "Device, Method, and Graphical User Interface for Displaying User Interface Objects Correspending to an Application", and International Patent No. 13/20/11 Publication No. 13/20/11 WO International Patent Application No. PCT / US2013 / 069483 filed on March 11, "Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Related Application".
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
In some embodiments, the
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi−Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。
FIG. 5B shows an exemplary personal
いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。
In some examples, the
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、コンピュータ実行可能命令は、1つ以上のコンピュータプロセッサ516によって行われると、例えば、プロセス700、900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800を含む後述する技術をコンピュータプロセッサに実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu−ray(登録商標)技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
The
本明細書では、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A〜5B)のディスプレイスクリーン上に表示されるユーザ対話グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。
As used herein, the term "affordance" is optionally displayed on the display screens of
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの動き又は接触の動き(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態にかかわらず、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図する対話をユーザインタフェースによって通信するように、ユーザによって制御される(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによる)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
As used herein, the term "focus selector" refers to an input element that indicates the current part of the user interface with which the user is interacting. In some embodiments that include a cursor or other location marker, the cursor acts as a "focus selector" and thus the cursor is of a particular user interface element (eg, a button, window, slider, or other user interface element). When an input (eg, a press input) is detected on a touch-sensitive surface (eg,
本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する既定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を特定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって操作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を超過するが第2の強度閾値を超過しない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。 As used herein and in the claims, the term "characteristic strength" of a contact refers to the characteristic of the contact based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally a predetermined number of intensity samples, i.e., a predetermined event (eg, after detecting a contact, before detecting a lift-off of a contact, before or after detecting the start of movement of a contact, A predetermined period (eg, 0.05, before or after detecting the end of contact, before or after detecting an increase in contact strength, and / or before or after detecting a decrease in contact strength). Based on a set of intensity samples collected between 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The contact characteristic strengths are optionally the maximum value of the contact strength, the average value of the contact strength, the average value of the contact strength, the top 10 percentile values of the contact strength, and the contact strength. It is based on one or more of the maximum half value of, the maximum 90% value of contact strength, and so on. In some embodiments, the duration of contact is used in identifying the property strength (eg, when the property strength is the average of the contact strengths over time). In some embodiments, the characteristic intensity is compared to one or more sets of intensity thresholds to determine if the operation was performed by the user. For example, a set of one or more intensity thresholds optionally includes a first intensity threshold and a second intensity threshold. In this example, a contact having a characteristic strength that does not exceed the first threshold results in a first action, and a contact that exceeds the first intensity threshold but does not exceed the second intensity threshold is the first. A contact having a characteristic strength that results in a second action and exceeds the second threshold results in a third action. In some embodiments, the comparison between the characteristic intensity and one or more thresholds is used to determine whether the first action should be performed or the second action should be performed. Rather than, it is used to determine whether one or more actions should be performed (eg, whether each action should be performed or whether each action should be stopped).
図5Cは、複数の強度センサ524A〜524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A〜552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A〜524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集約強度は、複数の強度センサ524A〜524Dの強度測定値の和であり、この例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A〜552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、一部の実装例では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、合計の強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C〜図5Dを参照して説明した動作は、デバイス100、300又は500と類似若しくは同一の電子デバイスを使用して行うことができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5C〜5Dに含まれていることに留意されたい。
FIG. 5C shows that the plurality of
いくつかの実施形態では、特性強度を特定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を特定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。 In some embodiments, a portion of the gesture is identified for the purpose of identifying characteristic intensities. For example, the touch-sensitive surface optionally receives a series of swipe contacts that transition from the start location to reach the end location, at which point the strength of the contact increases. In this example, the characteristic strength of the contact at the end location is optionally based on only a portion of the continuous swipe contact (eg, only the end location portion of the swipe contact) rather than the entire swipe contact. In some embodiments, a smoothing algorithm is optionally applied to the strength of the swipe contact before determining the characteristic strength of the contact. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and / or an exponential smoothing algorithm. In some situations, these smoothing algorithms eliminate a small increase or decrease in the strength of the swipe contact for the purpose of identifying characteristic intensities.
タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押下の強度閾値、深い押下の強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押下の強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押下の強度閾値又は深い押下の強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の動きに従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。 The intensity of contact on the touch-sensitive surface is optionally one or more intensities, such as a contact detection intensity threshold, a light press intensity threshold, a deep press intensity threshold, and / or one or more other intensity thresholds. Characterized against the threshold. In some embodiments, the light pressure intensity threshold corresponds to the intensity with which the device typically performs the action associated with clicking a physical mouse button or trackpad. In some embodiments, the deep pressure intensity threshold corresponds to the intensity with which the device performs an action that is different from the action normally associated with clicking a physical mouse button or trackpad. In some embodiments, the device detects a light press when a contact with a characteristic intensity below the light press intensity threshold (eg, above the nominal contact detection intensity threshold at which no contact is detected) is detected. The focus selector is moved according to the movement of contact on the touch-sensitive surface without performing the action associated with the intensity threshold of or the intensity threshold of deep pressing. In general, unless otherwise stated, these intensity thresholds are consistent across different sets of user interface diagrams.
軽い押下の強度閾値を下回る強度から、軽い押下の強度閾値と深い押下の強度閾値との間の強度への、接触の特性強度の増大は、「軽い押下」の入力と呼ばれることがある。深い押下の強度閾値を下回る強度から、深い押下の強度閾値を上回る強度への、接触の特性強度の増大は、「深い押下」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押下の強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロより大きい。 An increase in the characteristic intensity of contact from an intensity below the light pressing intensity threshold to an intensity between the light pressing intensity threshold and the deep pressing intensity threshold is sometimes referred to as a "light pressing" input. Increasing the characteristic intensity of contact from an intensity below the deep pressing intensity threshold to an intensity above the deep pressing intensity threshold is sometimes referred to as a "deep pressing" input. An increase in the characteristic intensity of contact from an intensity below the contact detection intensity threshold to an intensity between the contact detection intensity threshold and the light pressing intensity threshold is sometimes referred to as contact detection on the touch surface. The decrease in the characteristic strength of the contact from the strength above the contact detection strength threshold to the strength below the contact detection strength threshold is sometimes referred to as the detection of lift-off of contact from the touch surface. In some embodiments, the contact detection intensity threshold is zero. In some embodiments, the contact detection intensity threshold is greater than zero.
本明細書に記載するいくつかの実施形態では、それぞれの押下入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押下入力を検出したことに応じて、1つ以上の動作が実行され、それぞれの押下入力は、押下入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押下入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押下入力の「ダウンストローク」)を検出したことに応じて実行される。いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押下入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押下入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。 In some embodiments described herein, each press input performed in response to the detection of a gesture containing each press input or by each contact (or multiple contacts) is detected. Depending on, one or more actions are performed, and each press input is detected at least in part based on the detection of an increase in the intensity of the contact (or multiple contacts) above the press input intensity threshold. .. In some embodiments, each action is performed in response to detecting an increase in the intensity of each contact above the press input intensity threshold (eg, a "downstroke" of each press input). In some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold, followed by a decrease in the intensity of the contact below the press input intensity threshold, and each action follows a subsequent press. It is executed in response to the detection of a decrease in the intensity of each contact below the input threshold (eg, the "upstroke" of each pressing input).
図5E〜5Hは、図5Eの軽い押下の強度閾値(例えば、「ITL」)を下回る強度から、図5Hの深い押下の強度閾値(例えば、「ITD」)を上回る強度への、接触562の強度の増大に対応する押下入力を含むジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A〜572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押下の強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応じて、ジェスチャ中に深い押下の強度閾値(例えば、「ITD」)を上回る強度を有する接触562に従って、図5F〜5Hに示すように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A〜578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562に対する強度ダイアグラムは、表示ユーザインタフェースの一部ではなく、読み手の助けになるように図5E〜5Hに含まれていることに留意されたい。
5E-5H show contact from an intensity below the light pressing intensity threshold of FIG. 5E (eg, "IT L ") to an intensity above the deep pressing intensity threshold of FIG. 5H (eg, "IT D "). The detection of a gesture including a press input corresponding to an increase in intensity of 562 is shown. The gesture performed by the
いくつかの実施形態では、表現578A〜578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A〜578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F〜5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押下の強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A〜578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E〜5Hを参照して説明する動作は、デバイス100、300、又は500に類似又は同一の電子デバイスを使用して実行することができる。
In some embodiments, the display of
いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押下入力は、押下入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押下入力の「アップストローク」)を検出したことに応じて実行される。同様に、いくつかの実施形態では、押下入力は、デバイスが、ヒステリシス強度閾値以下の強度から押下入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押下入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid accidental inputs, which may be referred to as "jitter", and the device has a hysteresis intensity threshold that has a predetermined relationship with the pressing input intensity threshold. (For example, the hysteresis intensity threshold is an X intensity unit lower than the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable proportion of the press input intensity threshold. ). Thus, in some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold, followed by a decrease in the intensity of the contact below the hysteresis intensity threshold corresponding to the press input intensity threshold. Each action is performed in response to the detection of a subsequent decrease in the intensity of each contact below the hysteresis intensity threshold (eg, the "upstroke" of each pressing input). Similarly, in some embodiments, the press input is such that the device increases the intensity of contact from an intensity below the hysteresis intensity threshold to an intensity greater than or equal to the press input intensity threshold, and optionally below the hysteresis intensity thereafter. It was detected only when detecting a decrease in contact strength to the strength of, and each action detected a pressing input (for example, an increase in contact strength or a decrease in contact strength depending on the situation). Will be executed accordingly.
説明を容易にするために、押下入力強度閾値に関連付けられた押下入力、又は押下入力を含むジェスチャに応じて実行される動作の説明は、任意選択的に、押下入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押下入力強度閾値を上回る強度への接触の強度の増大、押下入力強度閾値を下回る接触の強度の減少、及び/又は押下入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応じてトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。 For ease of explanation, the description of the press input associated with the press input intensity threshold, or the action performed in response to the gesture containing the press input, optionally describes the contact intensity above the press input intensity threshold. Increase, increase contact intensity from below the hysteresis intensity threshold to above the press input intensity threshold, decrease contact intensity below the press input intensity threshold, and / or the hysteresis intensity threshold corresponding to the press input intensity threshold. Triggered in response to any detection of a decrease in contact strength below. Further, in the example in which the operation is described so as to be executed in response to the detection of a decrease in contact intensity below the pressing input intensity threshold, the operation optionally corresponds to the pressing input intensity threshold and It is performed in response to the detection of a decrease in contact intensity below the lower hysteresis intensity threshold.
本明細書では、「インストール済みアプリケーション」は、電子デバイス(例えば、デバイス100、300、及び/又は500)上へダウンロードされ、デバイス上で起動する準備ができた(例えば、開かれた)ソフトウェアアプリケーションを指す。いくつかの実施形態では、ダウンロードされたアプリケーションは、ダウンロードされたパッケージからプログラム部分を抽出し、抽出された部分をコンピュータシステムのオペレーティングシステムと統合するインストールプログラムによって、インストール済みアプリケーションになる。
As used herein, an "installed application" is a software application that has been downloaded onto an electronic device (eg,
本明細書では、「開いているアプリケーション」又は「実行中のアプリケーション」という用語は、保持された状態情報(例えば、デバイス/グローバル内部状態157及び/又はアプリケーション内部状態192の一部として)を有するソフトウェアアプリケーションを指す。開いている又は実行中のアプリケーションは、任意選択的に、以下のタイプのアプリケーションのうちのいずれか1つである。
●アプリケーションが使用されているデバイスのディスプレイスクリーン上に現在表示されているアクティブアプリケーション、
●現在表示されていないが、アプリケーションに対する1つ以上のプロセスが1つ以上のプロセッサによって処理されている背景アプリケーション(又は背景プロセス)、並びに
●走行していないが、メモリ(それぞれ揮発性及び不揮発性)内に記憶されており、アプリケーションの実行を再開するために使用することができる状態情報を有する中断又は休止状態アプリケーション。
As used herein, the term "open application" or "running application" has retained state information (eg, as part of device / global
● The active application currently displayed on the display screen of the device in which the application is used,
● Background applications (or background processes) that are not currently displayed, but one or more processes for the application are being processed by one or more processors, and ● Not running, but memory (volatile and non-volatile, respectively). Suspended or hibernated application that is stored in) and has state information that can be used to resume execution of the application.
本明細書では、「閉じているアプリケーション」という用語は、保持された状態情報を有していないソフトウェアアプリケーションを指す(例えば、閉じているアプリケーションに対する状態情報は、デバイスのメモリ内に記憶されていない)。したがって、アプリケーションを閉じることは、アプリケーションに対するアプリケーションプロセスを停止及び/又は除去し、アプリケーションに対する状態情報をデバイスのメモリから除去することを含む。概して、第1のアプリケーション中に第2のアプリケーションを開いても、第1のアプリケーションは閉じない。第2のアプリケーションが表示されており、かつ第1のアプリケーションが表示を終了されたとき、第1のアプリケーションは背景アプリケーションになる。 As used herein, the term "closed application" refers to a software application that does not have retained state information (eg, state information for a closed application is not stored in the memory of the device. ). Therefore, closing an application involves stopping and / or removing the application process for the application and removing state information for the application from the device's memory. In general, opening a second application during a first application does not close the first application. When the second application is displayed and the first application is finished displaying, the first application becomes the background application.
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
Next, attention is paid to embodiments of user interfaces (“UI”) and related processes implemented on electronic devices such as the
図6A〜図6Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図7A〜図7Cにおける処理を含む、以下で説明される処理を例示するために使用される。 6A-6V show exemplary user interfaces for accessing media controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 7A-7C.
図6Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビューは、対象640及び周囲環境を含む。図6Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラの(例えば、部分的な)視野の表現である。
FIG. 6A shows an
図6Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。概して、フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることをユーザに示す。
As shown in FIG. 6A, the
図6Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図6Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。
As shown in FIG. 6A, the
図6Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図6Aにおいて、カメラモードアフォーダンス620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。
As shown in FIG. 6A, the
図6Bでは、ユーザは、三脚アクセサリ601をデバイス600に取り付けた。その結果、デバイス600は、三脚接続条件が満たされていると判定する。三脚接続条件は、デバイスが接続された三脚を検出すると満たされ、デバイスが接続された三脚を検出しないと満たされない条件である。三脚接続条件が満たされていることに基づいて、デバイス600は、コントロール領域を更新して、追加のコントロールアフォーダンス614を拡張し、タイマーコントロールアフォーダンス614aを表示する。いくつかの実施形態では、デバイス600は、タイマーコントロールアフォーダンス614aに向けられた入力が受信されないとき、所定の期間が経過した後に、タイマーコントロールアフォーダンス614aの表示を停止する。
In FIG. 6B, the user has attached the
図6Aに戻ると、デバイス600は、三脚アクセサリ601が取り付けられていない。その結果、デバイス600は、三脚接続条件が満たされていないと判定する。図6Aでは、三脚接続条件が満たされていることに基づいて、デバイス600は、タイマーコントロールアフォーダンス614aを表示しない。
Returning to FIG. 6A, the
図6Bでは、デバイス600は、タッチ感知面を使用して、タイマーコントロールアフォーダンス614aの表示に対応する場所でのタップジェスチャ650aを検出する。図6Cに示すように、タップジェスチャ650aを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの表示を停止する。いくつかの実施形態では、デバイス600は、インジケータ領域602が高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なタイマーコントロールアフォーダンス634a〜634dを含む調整可能なタイマーコントロール634に置き換える。調整可能なタイマーコントロールアフォーダンス634a〜634dは、アクティブ化されると、シャッターアフォーダンス610がアクティブ化されたときにメディアをキャプチャするための遅延を変更する(又は変更するためのプロセスを開始した)。例えば、調整可能なタイマーコントロールアフォーダンス634aは、アクティブ化されると、遅延時間を0秒に設定し、調整可能なタイマーコントロールアフォーダンス634bは、アクティブ化されると、遅延を3秒に設定する。図6Cでは、デバイス600はまた、ズームアフォーダンス622をもはや表示していない。
In FIG. 6B, the
図6Cでは、デバイス600は、タッチ感知面を使用して、調整可能なタイマーコントロールアフォーダンス634dに対応する場所でのタップジェスチャ650bを検出する。図6Dに示すように、タップジェスチャ650bを検出したことに応答して、デバイス600は、調整可能なタイマーコントロール634を更新して、「OFF」がもはや選択されておらず、「10S」が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。加えて、デバイス600は、シャッターアフォーダンス610がアクティブ化されたときに、メディアをキャプチャするために、10秒のセルフタイマー遅延を設定する。いくつかの実施形態では、更に、タップジェスチャ650bを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650bを検出した後の所定の期間の後に、調整可能なタイマーコントロール634の表示を停止する。
In FIG. 6C, the
図6Dでは、調整可能なタイマーコントロール634が表示され、かつインジケータ領域602が高さ低減モードにある間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650cを検出する。図6Eに示すように、タップジェスチャ650cを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602aを再表示する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにないとき(例えば、インジケータがインジケータ領域602内に表示されているとき)、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aを表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なタイマーコントロール634の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。セルフタイマー機能がアクティブ化されている結果(例えば、0秒よりも大きい遅延に設定されている)として、デバイス600は、インジケータ領域602内にタイマー状態インジケータ602bを表示する。フラッシュインジケータ602aと同様に、タイマー状態インジケータ602bは、セルフタイマーの状態のインジケーションが提供される。図6Eの例では、タイマー状態インジケータ602bは、セルフタイマー遅延が10秒に設定されていることを示す。いくつかの実施形態では、タイマー状態インジケータ602bは、セルフタイマー遅延が無効化されている(又は0秒に設定されている)ときには表示されない。いくつかの実施形態では、(例えば、タップジェスチャオン)タイマー状態インジケータ602bのアクティブ化により、デバイス600に、セルフタイマー遅延を変更するための様々なオプションを、調整可能なタイマーコントロール634内などに表示させる。
In FIG. 6D, while the
図6Eでは、(例えば、タップジェスチャオン)シャッターアフォーダンス610のアクティブ化により、デバイス600に、フラッシュ(フラッシュインジケータ602aによって示されるような)なしで、かつ10秒のセルフタイマー遅延(タイマー状態インジケータ602bによって示されるような)を備えること含む、デバイスの現在の状態に基づいて、メディア(例えば、画像、一連の画像)のキャプチャを開始させる。いくつかの実施形態では、図8A〜図8Vに関して更に詳細に説明されるように、デバイス600は、インジケータ(indictor)領域602及びコントロール領域606に示されるように、ライブプレビュー630に対応する視覚コンテンツ(及び任意選択的に追加の視覚コンテンツ)を含む。
In FIG. 6E, activation of the shutter affordance 610 (eg, tap gesture) causes the
図6Fでは、デバイス600のカメラ機能は、ライブプレビュー630に示すように、低光環境で使用される。低光環境にある間は、デバイス600は、1つ以上のカメラセンサ、周辺光センサ、及び/又は環境照明条件を検出する追加のセンサを使用して、低光条件が満たされていると判定する(例えば、環境照明条件が閾値(例えば、10ルクス)を下回り、かつフラッシュが有効化されていないことをデバイス600が検出すると満たされ、環境照明条件が閾値を下回らないか、又はフラッシュが有効化(オン又は自動)されていることをデバイスが検出すると満たされない条件)。図6Fにおいて、低光条件が満たされているという判定に従って、デバイス600は、インジケータ領域602内に低光モード状態インジケータ602cを(例えば、追加のユーザ入力を必要とせずに)表示する。加えて、図6F〜図6Gに示すように、低光条件が満たされているという判定に従って、デバイス600は、インジケータ領域606内に低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。いくつかの実施形態では、デバイス600は、1つのアフォーダンスを他のアフォーダンスに置き換えることによって、インジケータ領域606内に低光モードコントロールアフォーダンス614bの表示とフラッシュコントロールアフォーダンス614cの表示との間で(例えば、所定の回数)サイクルする。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cは、インジケータ領域606内に同時に表示される。いくつかの実施形態では、低光モードコントロールアフォーダンス614b及びフラッシュコントロールアフォーダンス614cのそれぞれが、異なる照明条件(例えば、異なる周辺光レベル)に対応し、アフォーダンスは、それらの対応する照明条件が満たされているときに、コントロール領域606内に表示される(及び、それらの対応する照明条件が満たされているときに表示されない)。いくつかの例では、第1の照明条件は、環境照明条件が第1の閾値(例えば、20ルクス)を下回ることをデバイス600が検出すると満たされ、第2の照明条件は、環境照明条件が第2の閾値(例えば、10ルクス)を下回ることをデバイス600が検出すると満たされる。いくつかの実施形態では、照明条件は、デバイス600によって検出された環境光の量、及び任意選択的に、フラッシュが有効化されているかどうかに基づく。デバイス600は、任意選択的に、インジケータに対応する機能(例えば、照明強調機能)が使用可能である場合(対応する機能が有効化されているか又は無効化されているかどうかにかかわらず)、低光モード状態インジケータ602cを表示する。
In FIG. 6F, the camera function of the
対照的に、図6A〜図6Eにおいて、低光条件が満たされていないとデバイス600が判定することに従って、デバイス600は、低光モードコントロールアフォーダンス614b、低光モード状態インジケータ602c、及び低光モード状態インジケータ602cを、それらの対応するカメラユーザインタフェース内に表示するのをやめる。いくつかの実施形態では、デバイス600は、インジケータに対応する機能(例えば、照明強調機能)が使用可能でない場合、インジケータ領域602内に低光モード状態インジケータ602cを表示しない。
In contrast, in FIGS. 6A-6E, according to the
図6Gに戻ると、デバイス600は、タッチ感知面を使用して、フラッシュコントロールアフォーダンス614cに対応する場所でのタップジェスチャ650dを検出する。図6Hに示すように、タップジェスチャ650dを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aの表示を停止する。いくつかの実施形態では、インジケータ領域602が高さ低減モードにあるときであっても、デバイス600は、インジケータ領域602内に(状態(オン、オフ、自動)にかかわらず)フラッシュインジケータ602aの表示を続行する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能なフラッシュコントロール662に置き換える。調整可能なフラッシュコントロール662は、フラッシュオンコントロール662a及びフラッシュオフコントロール662bを含む。デバイス600は、例えば、フラッシュオフコントロール662b内の「OFF」を強調(例えば、太字、ハイライト)することにより、フラッシュがオフ状態にあることを示す。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604内のズームアフォーダンス610の表示を停止する。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス610の表示を維持する。
Returning to FIG. 6G, the
図6Hでは、デバイス600は、タッチ感知面を使用して、フラッシュオンコントロール662aに対応する場所でのタップジェスチャ650eを検出する。図6Iに示すように、タップジェスチャ650bを検出したことに応答して、デバイス600は、調整可能なフラッシュコントロール662を更新して、「OFF」(フラッシュオフコントロール662bに対応)がもはや選択されておらず、「ON」(フラッシュオンコントロール662aに対応)が現在は選択されていることを(例えば、太字、ハイライトにより)を示す。
In FIG. 6H, the
いくつかの実施形態では、更に、タップジェスチャ650eを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650eを検出した後の所定の期間の後に、更新された調整可能なフラッシュコントロール662の表示を停止し、図6Iに示すユーザインタフェースに遷移する。具体的には、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Hのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、コントロール領域606内にフラッシュインジケータ602a(現在、フラッシュが有効化されていることを示す)を再表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なフラッシュコントロール662の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Jでは、低光条件が満たされ続けているという判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。図6Jでは、低光条件はもはや満たされず(例えば、フラッシュがオンであるため)、その結果、低光モード状態インジケータ602cは、図18A〜図18Xに関してより詳細に説明されるように、インジケータ領域602内にもはや表示されない。
In some embodiments, the
図6Jでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650fを検出する。図6Kに示すように、タップジェスチャ650fを検出したことに応答して、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを減少させ、コントロール領域606の高さを増加させる。インジケータ領域602の高さを減少させることに加えて、デバイス600は、コントロール領域606内のフラッシュインジケータ602aの表示を停止する。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a〜626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a〜626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始する)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、セルフ遅延タイマー(シャッター時間としても知られる)を設定するプロセスを開始する。
In FIG. 6J, the
図6Kでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する場所(コントロール領域606内)でのタップジェスチャ650gを検出する。図6Lでは、タップジェスチャ650gを検出したことに応答して、デバイス600は、アニメーション化された画像コントロールアフォーダンス626bの表示を拡張して、調整可能なアニメーション化された画像コントロール664を表示し、これは、アクティブ化されると(例えば、タップにより)、デバイスが単一の画像又は既定の数の画像をキャプチャするかどうかを構成する、複数のアフォーダンス664a〜664bを含む。図6Lでは、アニメーション化された画像コントロールオフオプション664bが強調され(例えば、太字化される)、シャッターアフォーダンス610のアクティブ化が、既定の数の画像ではなく単一の画像をキャプチャすることを示す。
In FIG. 6K, the
図6Lでは、デバイス600は、タッチ感知面を使用して、アニメーション化された画像コントロールアフォーダンス626bに対応する場所(コントロール領域606内)でのタップジェスチャ650hを検出する。図6Mでは、タップジェスチャ650gを検出したことに応答して、デバイス600は、調整可能なアニメーション化された画像コントロール664を更新して、アニメーション化された画像コントロールオフオプション664bの強調を停止し、代わりに、(例えば、「ON」を太字化することによって)オプション664a上のアニメーション化された画像コントロールを強調する。更に、タップジェスチャ650hを検出したことに応答して、デバイス600は、シャッターアフォーダンス610のアクティブ化(例えば、タップオン)が検出されると、既定の数の画像をキャプチャするようにカメラを構成する。
In FIG. 6L, the
いくつかの実施形態では、更に、タップジェスチャ650hを検出したことに応答して、及び追加のユーザ入力を受信することなく、デバイス600は、タップジェスチャ650hを検出した後の所定の期間の後に、更新された調整可能なアニメーション化された画像コントロール664の表示を停止し、図6Nに示すユーザインタフェースに遷移する。いくつかの実施形態では、タッチ感知面を使用して、カメラディスプレイ領域606内のライブプレビュー630に対応する場所での下スワイプジェスチャ650iを検出したことに応答して、デバイス600は、図6Nに示すユーザインタフェースを表示するように遷移する。
In some embodiments, the
図6M〜図6Nのユーザインタフェースから遷移する際、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる(図6Mのユーザインタフェースと比較して)。インジケータ領域602の高さを増加させることに加えて、デバイス600は、フラッシュが有効化されていることを示す、フラッシュインジケータ602aを再表示し、カメラがコントロール領域606内の既定の数の画像(上述のように)をキャプチャすることを示す、アニメーション化された画像状態インジケータ602dを更に表示する。コントロール領域606の高さを減少させることに加えて、デバイス600は、調整可能なアニメーション化された画像コントロール664の表示を、カメラモードアフォーダンス620に置き換える。更に、デバイス600は、カメラディスプレイ領域604内にズームアフォーダンス610を再表示する。図6Nでは、低光条件が満たされ続けているという判定に従って、デバイス600は、コントロール領域606内にフラッシュコントロールアフォーダンス614cを(例えば、追加のユーザ入力を必要とせずに)表示する。
Upon transitioning from the user interface of FIGS. 6M-6N, the
図6Nでは、カメラフラッシュが有効化され、かつアニメーション化された画像コントロールが有効化されている間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ650jを検出する。タップジェスチャ650jを検出したことに応答して、デバイス600は、ライブプレビュー630の現在の状態及びカメラ設定に基づいて、メディア(例えば、既定の数の画像)をキャプチャする。キャプチャされたメディアは、デバイス600にローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。更に、図6Oに示すようにタップジェスチャ650jを検出したことに応答して、デバイス600は、(例えば、追加のコントロールアフォーダンス614の表示を部分的に又は完全に置き換えることによって)メディアコレクション624を表示し、コレクションの上に新たにキャプチャされたメディアの表現を含む。図6Oの例では、メディアコレクション624は、新たにキャプチャされたメディアの表現のみを含み、他のメディアの表現を含まない。シャッターアフォーダンス610がアクティブ化されたときにカメラフラッシュが有効化されていたため、新たにキャプチャされたメディアは、フラッシュを用いてキャプチャされた。シャッターアフォーダンス610がアクティブ化されたときにアニメーション化された画像コントロールが有効化されていたため、新たにキャプチャされたメディアは、既定の数の画像(例えば、静止画像及びビデオ)を含む。
In FIG. 6N, while the camera flash is enabled and the animated image control is enabled, the
図6Oでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所でのタップジェスチャ650kを検出する。図6Pに示すようにタップジェスチャ650kを検出したことに応答して、デバイス600は、ライブプレビュー630の表示を停止し、代わりに、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースを表示する。キャプチャされたメディアは、フラッシュを有効化してキャプチャされたため、新たにキャプチャされたメディアの表現642は、シャッターアフォーダンス610がアクティブ化されたときに表示されたライブプレビュー630のビューよりも明るい(フラッシュがアクティブ化されたため)。キャプチャされたメディアの表示表現642は、画像が撮影されたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600がキャプチャされたメディアを再生するとき、再生には、一連の画像がキャプチャされたときにカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚的再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかったが、キャプチャされたメディアを記憶する部分として任意選択的に保存された記録された視覚コンテンツも含まない)。いくつかの実施形態では、図10A〜図10Kに関して更に説明されるように、キャプチャされたメディアの記録中にインジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、保存されたメディアに記憶される。
In FIG. 6O, the
図6Pでは、デバイス600は、新たにキャプチャされたメディアの表現642と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを伝送するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を同時に表示する。デバイス600は、アニメーション化された画像コントロールが有効化されている間に表示されたメディアがキャプチャされたと判定し、それに応じて、アニメーション化された画像状態インジケータ644fを表示する。
In FIG. 6P, the
図6Pでは、デバイス600は、タッチ感知面を使用して、戻るアフォーダンス644eに対応する場所でのタップジェスチャ650lを検出する。図6Qに示すようにタップジェスチャ650lを検出したことに応答して、デバイス600は、新たにキャプチャされたメディアの表現642を含む写真ビューワユーザインタフェースの表示を、ライブプレビュー630を含むカメラユーザインタフェースの表示に置き換える。
In FIG. 6P, the
図6Qでは、デバイス600は、タッチ感知面を使用して、カメラポートレートモードアフォーダンス620dに対応する場所でのタップジェスチャ650mを検出する。図6Rでは、タップジェスチャ650mを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図6Tにおいて、ズームアフォーダンス622は、左にシフトすると、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示される。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図6Rと図6Qで同一である。図6Rの更新されたライブプレビュー630は、図6Qのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図6Qのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。照明効果コントロール628の自然光選択によって示すように、ライブプレビューは、対象の環境内の自然光を使用して対象640を表示しており、照明効果を適用しない。照明効果コントロール628を使用して、メディアをキャプチャする際に使用/適用される照明効果のレベル(及びタイプ)を調整することができる。いくつかの実施形態では、照明効果の調整はまた、ライブプレビュー630に反映される。
In FIG. 6Q, the
図6Rでは、デバイス600は、タッチ感知面を使用して、照明効果コントロール628に対応する場所での左スワイプジェスチャ650nを検出して、スタジオ照明効果を選択する。図6Sでは、左スワイプジェスチャ650nを検出したことに応答して、デバイス600は、照明効果コントロール628を更新して、スタジオ照明効果が選択されることを示し、ライブプレビュー630の表示を更新して、スタジオ照明効果を含み、それにより、スタジオ照明効果を使用してキャプチャされたメディアがどのように見えるかの表現をユーザに提供する。デバイス600はまた、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。図6Sでは、光調整条件(例えば、カメラがポートレートモードにあるか、又は別の方法で照明効果を変化させることができると満たされる条件)が満たされているという判定に従って、デバイス600は、コントロール領域606内に照明コントロールアフォーダンス614dを(例えば、追加のコントロールアフォーダンス614を拡張することによって、追加のユーザ入力を必要とせずに)表示する。
In FIG. 6R, the
図6Sでは、デバイス600は、タッチ感知面を使用して、照明コントロールアフォーダンス614dに対応する場所でのタップジェスチャ650oを検出する。図6Tでは、タップジェスチャ650oを検出したことに応答して、デバイス600は、カメラモードアフォーダンス620の表示を、調整可能な照明効果コントロール666に置き換え、現在の照明効果値(例えば、800ルクス)のインジケーション(例えば、カメラディスプレイ領域604内)を提供する。いくつかの実施形態では、インジケータ領域602内のインジケータの表示は維持される。いくつかの実施形態では、タップジェスチャ650oによって、インジケータ(indictor)領域602内にインジケータの表示が停止される(例えば、上述のように、カメラディスプレイ領域606の境界をシフトすること、及びインジケータ(indictor)領域602及びコントロール領域606をリサイズすることによって)。
In FIG. 6S, the
図6Tでは、調整可能な照明効果コントロール666を表示している間に、デバイス600は、タッチ感知面を使用して、調整可能な照明効果コントロール666に対応する場所でのスワイプジェスチャ650pを検出して、照明効果値を低減する。図6Uでは、スワイプジェスチャ650oを検出したことに応答して、デバイス600は、照明効果値をより低くし、これはライブプレビュー630に反映され、より暗くなり、インジケーション(例えば、カメラディスプレイ領域604内)を更新された照明効果値(例えば、600ルクス)に更新し、インジケータ領域602内の照明状態インジケータ602fを更新して、更新された照明効果値を反映する。
In FIG. 6T, while displaying the adjustable
図6Uでは、調整可能な照明効果コントロール666が表示される(かつ任意選択的に、インジケータ領域602が高さ低減モードにある)間に、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ650qを検出する。図6Vに示すように、タップジェスチャ650qを検出したことに応答して、デバイス600は、調整可能な照明効果コントロール666の表示を、カメラモードアフォーダンス620の表示に置き換える。いくつかの実施形態では、カメラディスプレイ領域606の境界がシフトアップし、インジケータ(indictor)領域602及びコントロール領域606がサイズ変更された場合、デバイス600は、カメラディスプレイ領域604の境界(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンして戻り、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを低減させる。デバイス600はまた、カメラディスプレイ領域604内の照明効果値のインジケーションの表示を停止するが、任意選択的に、照明効果コントロール628の表示を維持する。
In FIG. 6U, while the adjustable
図7A〜図7Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールにアクセスするための方法を示すフロー図である。方法700は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
7A-7C are flow diagrams illustrating methods for accessing media controls using electronic devices according to some embodiments.
後述するように、方法700は、メディアコントロールにアクセスするための直感的な仕方を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(702)。カメラユーザインタフェースは、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、606)を含む(704)。 The electronic device (eg, 600) displays the camera user interface via the display device (702). The camera user interface includes a camera display area (eg, 606) that includes a representation of the field of view of one or more cameras (eg, 630) (704).
カメラユーザインタフェースはまた、複数のカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含むカメラコントロール領域(例えば、606)を含む(706)。カメラコントロール領域内の複数のカメラ設定を制御する複数のコントロールアフォーダンスを提供することにより、ユーザが、複数のカメラ設定を迅速かつ容易にかつ変更及び/又は管理することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 The camera user interface also controls multiple camera settings (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) (eg, changing camera mode) (eg, taking a photo). (For example, multiple control affordances (eg, 620, 626) that activate different cameras (eg, front to back) (eg, selectable user interface objects) (eg, proactive control affordance, shutter affordance, camera selection affordance). Includes a camera control area (eg, 606) that includes a plurality of camera mode accommodations) (706). By providing a plurality of control accommodations that control a plurality of camera settings within the camera control area, the user can perform a plurality of. Allows you to change and / or manage camera settings quickly and easily. The additional controller displayed enhances device usability by providing additional control options without cluttering the UI. Make the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition, the user By enabling the device to be used faster and more efficiently, the device's power usage is reduced and battery life is improved.
第1の既定の条件及び第2の既定の条件(例えば、デバイスの環境内の環境条件)(例えば、電子デバイスが暗い環境にある)(例えば、電子デバイスが三脚上にある)(例えば、電子デバイスが低光モードにある)(例えば、電子デバイスが特定のカメラモードにある)が満たされない間に、電子デバイス(例えば、600)は、第1の既定の条件に関連付けられた第1のコントロールアフォーダンス(例えば、602b、602c)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、かつ第2の既定の条件に関連付けられた第2のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示することなく、カメラユーザインタフェースを表示する(708)。 A first default condition and a second default condition (eg, environmental conditions within the device's environment) (eg, the electronic device is in a dark environment) (eg, the electronic device is on a tripod) (eg, electronic While the device is in low light mode (eg, the electronic device is in a particular camera mode) is not met, the electronic device (eg, 600) is the first control associated with the first default condition. Display second control affordances (eg, selectable user interface objects) associated with a second default condition without displaying affordances (eg, 602b, 602c) (eg, selectable user interface objects). Display the camera user interface without doing (708).
第1のコントロールアフォーダンスを表示することなく、かつ第2のコントロールアフォーダンスを表示することなく、カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、条件の変化を検出する(710)。 While displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance, the electronic device (eg, 600) detects a change in condition (eg, 600). 710).
条件の変化を検出したことに応答して(712)、第1の既定の条件(例えば、電子デバイスが暗い環境にある)が満たされている(例えば、現在満たされた)という判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス(例えば、614c、フラッシュ設定アフォーダンス)(例えば、第1の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(714)。第1の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンスを表示することは、第1のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in condition (712), according to the determination that the first predetermined condition (eg, the electronic device is in a dark environment) is met (eg, currently met), the electron The device (eg, 600) corresponds to a first control affordance (eg, 614c, flash setting affordance) (eg, a camera setting that is active or enabled as a result of the first default condition being met. Control affordances) are displayed (eg, automatically, without the need for further user input) (714). Displaying the first control affordance according to the determination that the first predetermined condition is met provides quick and convenient access to the first control affordance. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done.
いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第1の所定の閾値(例えば、10ルクス)を下回るときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、フラッシュ動作を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第1の所定の閾値を下回るときに、フラッシュ動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、フラッシュ動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、フラッシュ動作の制御のためのアフォーダンスの選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、フラッシュ動作の状態(例えば、アクティブ(例えば、オン)、例えば、非アクティブ(例えば、オフ)、自動(例えば、条件(例えば、カメラの視野内の光量)に基づいてリアルタイムでフラッシュを非アクティブ又はアクティブに変更する必要があるかを電子デバイスが判定する)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light in the field of view of one or more cameras (eg, the amount of brightness (eg, 20 lux, 5 lux)) falls below a first predetermined threshold (eg, 10 lux). , The first predetermined condition is satisfied, and the first control affordance is an affordance (eg, a selectable user interface object) that controls the flash operation. By providing a first control affordance, which is an affordance to control the flash operation when the amount of light in the field of view of one or more cameras falls below a first predetermined threshold, the user can control the flash operation. Access quickly and easily when such controls are needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to the choice of affordance for controlling the flash operation, and in response to receiving the user input, the electronic device receives the user input. Inactive or active flash in real time based on the state of flash operation (eg active (eg on), eg inactive (eg off), automatic (eg condition (eg amount of light in the camera's field of view)) The electronic device determines if it needs to be changed to) and / or can display a user interface that changes the state of the flash operation.
いくつかの実施形態では、電子デバイス(例えば、600)が第1のタイプのアクセサリ(例えば、601、安定化装置(例えば、三脚))に接続(例えば、物理的に接続)されているときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、タイマー動作(例えば、画像キャプチャタイマー、キャプチャ遅延タイマー)を制御するアフォーダンス(例えば、614a)(例えば、選択可能ユーザインタフェースオブジェクト)である。電子デバイスが第1のタイプのアクセサリに接続されているときに、タイマー動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、タイマー動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、タイマー動作を制御するアフォーダンス(例えば、630)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、タイマー動作の状態(例えば、メディアのキャプチャを開始した後のキャプチャ時間)を変更するか、及び/又はフラッシュ動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when an electronic device (eg, 600) is connected (eg, physically connected) to a first type of accessory (eg, 601, stabilizer (eg, tripod)). , The first default condition is met, and the first control affordance is an affordance (eg, 614a) (eg, selectable user interface object) that controls timer operation (eg, image capture timer, capture delay timer). be. By providing a first control affordance, which is an affordance that controls the timer operation when the electronic device is connected to the first type of accessory, the user can control the timer operation, such control. Quick and easy access when needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to a selection of affordances (eg, 630) that controls timer operation, and in response to receiving the user input, the electronic device (eg, 600) receives an electronic device. The device can change the state of the timer operation (eg, the capture time after starting the capture of the media) and / or display a user interface that changes the state of the flash operation.
いくつかの実施形態では、1つ以上のカメラの視野内の光量(例えば、輝度の量(例えば、20ルクス、5ルクス))が第2の所定の閾値(例えば、20ルクス)を下回るときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、低光キャプチャモードを制御するアフォーダンス(例えば、614b)(例えば、選択可能ユーザインタフェースオブジェクト)である。1つ以上のカメラの視野内の光量が第2の所定の閾値を下回るときに、低光キャプチャモードを制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、低光キャプチャモードの制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、低光キャプチャモードを制御するアフォーダンス(例えば、650d)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ))を変更するか、及び/又は低光キャプチャモードの状態を変更するユーザインタフェースを表示することができる。 In some embodiments, when the amount of light in the field of view of one or more cameras (eg, the amount of brightness (eg, 20 lux, 5 lux)) falls below a second predetermined threshold (eg, 20 lux). , The first predetermined condition is met, and the first control affordance is an affordance (eg, 614b) (eg, selectable user interface object) that controls the low light capture mode. By providing a first control affordance, which is an affordance to control the low light capture mode when the amount of light in the field of view of one or more cameras falls below a second predetermined threshold, the user can use the low light capture mode. Quickly and easily access control of the above when such control is needed and / or likely to be used. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the electronic device (eg, 600) receives a user input corresponding to the choice of affordance (eg, 650d) that controls the low light capture mode, and in response to receiving the user input. , The electronic device displays a user interface that changes the state of the low light capture mode (eg, active (eg, on), inactive (eg, off)) and / or changes the state of the low light capture mode. can do.
いくつかの実施形態では、第1のキャプチャモード(例えば、ポートレートモード)で画像をキャプチャするように電子デバイス(例えば、600)が構成されるときに、第1の既定の条件が満たされ、第1のコントロールアフォーダンスは、照明効果動作(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))を制御するアフォーダンス(例えば、614d)(例えば、選択可能ユーザインタフェースオブジェクト)である(718)。第1のキャプチャモードで画像をキャプチャするように電子デバイスが構成されているときに、照明効果動作を制御するアフォーダンスである第1のコントロールアフォーダンスを提供することにより、ユーザは、照明効果動作の制御へ、このような制御が必要及び/又は使用されそうなときに迅速かつ容易にアクセスする。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、照明効果動作を制御するアフォーダンス(例えば、650o)の選択に対応するユーザ入力を受信し、ユーザ入力を受信したことに応答して、電子デバイスは、照明効果の状態(例えば、照明の量)を変更するか、及び/又は照明効果動作の状態を変更するユーザインタフェースを表示することができる。 In some embodiments, the first default condition is met when the electronic device (eg, 600) is configured to capture the image in the first capture mode (eg, portrait mode). The first control interface is an affordance (eg, 614d) (eg, 614d) (eg, eg, 614d) that controls lighting effect behavior (eg, media lighting capture control (eg, portrait lighting effect control (eg, studio lighting, contour lighting, stage lighting))). A selectable user interface object) (718). Provides a first control affordance, which is an affordance that controls lighting effect behavior when the electronic device is configured to capture an image in the first capture mode. By doing so, the user has quick and easy access to the control of the lighting effect operation when such control is needed and / or is likely to be used. By reducing the number of inputs required to perform the operation. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved. In some embodiments, the electronic device (eg, eg). , 600) receives the user input corresponding to the selection of the affordance (eg, 650o) that controls the lighting effect operation, and in response to receiving the user input, the electronic device receives the state of the lighting effect (eg, 650o). The amount of lighting) can be changed and / or a user interface can be displayed to change the state of the lighting effect operation.
いくつかの実施形態では、照明効果を制御するアフォーダンス(例えば、614d)を表示している間に、電子デバイス(例えば、600)は、照明効果を制御するアフォーダンス(例えば、614d)の選択(例えば、タップ)を受信する(720)。いくつかの実施形態では、照明効果を制御するアフォーダンス(例えば、614d)の選択を受信したことに応答して、電子デバイス(例えば、600)は、調整する(例えば、スライダ上の値(例えば、ティックマーク)間でスライダ上のスライダバーをドラッグする)と、1つ以上のカメラの視野の表現に適用された照明効果(例えば、照明)を調整する、照明効果動作(例えば、スライダ)を調整するアフォーダンス(例えば、666)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(722)。いくつかの実施形態では、調整された照明効果はまた、キャプチャされたメディアにも適用される(例えば、第1のコントロールアフォーダンスがスタジオ照明効果動作を制御するときに、スタジオ光に関連付けられた照明)。 In some embodiments, while displaying an affordance (eg, 614d) that controls the lighting effect, the electronic device (eg, 600) selects an affordance (eg, 614d) that controls the lighting effect (eg, 614d). , Tap) to receive (720). In some embodiments, the electronic device (eg, 600) adjusts (eg, a value on the slider (eg, eg, 614d)) in response to receiving a selection of affordances (eg, 614d) that control the lighting effect. (Drag the slider bar on the slider) between tick marks) to adjust the lighting effect (eg lighting) applied to the representation of the field of view of one or more cameras, adjust the lighting effect behavior (eg slider) The affordance to be performed (eg, 666) (eg, selectable user interface object) is displayed (722). In some embodiments, the tuned lighting effect is also applied to the captured media (eg, the lighting associated with the studio light when the first control affordance controls the studio lighting effect behavior. ).
いくつかの実施形態では、第1のコントロールアフォーダンスを表示している間に、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスに関連付けられた(例えば、それによって制御され得る)(例えば、第1のコントロールの特性又は状態を示す)電子デバイスの特性(例えば、設定)の現在の状態のインジケーション(例えば、602f)(例えば、コントロールの効果(例えば、フラッシュ動作がアクティブであることのインジケーション))を同時に表示する(724)。第1のコントロールアフォーダンスを表示している間に、電子デバイスの特性の現在の状態のインジケーションを同時に表示することにより、ユーザが、第1のコントロールアフォーダンスを使用して、特性の現在の状態を迅速かつ容易に閲覧及び/又は変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、インジケーション(例えば、602a、602c)は、ユーザインタフェースの上部(例えば、電話の上部)に表示される。いくつかの実施形態では、カメラトグル(例えば、前カメラと後カメラとの間をトグルする)制御)が変更したことに応答して、インジケーションが表示される。 In some embodiments, while displaying the first control affordance, the electronic device (eg, 600) is associated with (eg, can be controlled by) the first control affordance (eg, it can be controlled). An indication of the current state of an electronic device characteristic (eg, a setting) (eg, 602f) (eg, an indication that the effect of the control (eg, the flash operation is active)) (indicating the characteristic or state of the first control). (Action)) are displayed at the same time (724). While displaying the first control affordance, the user can use the first control affordance to view the current state of the characteristic by simultaneously displaying the indication of the current state of the characteristic of the electronic device. Allows quick and easy viewing and / or modification. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the indication (eg, 602a, 602c) is displayed at the top of the user interface (eg, top of the phone). In some embodiments, the indication is displayed in response to a change in the camera toggle (eg, the control that toggles between the front and rear cameras).
いくつかの実施形態では、特性は1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、インジケーションを表示することは、特性が1つ以上のアクティブ状態のうちの少なくとも1つにあるという判定に従う。いくつかの実施形態では、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。いくつかの実施形態では、特性が非アクティブ状態にある(例えば、非アクティブ状態にあるように変更される)という判定に従って、インジケーションは、表示されないか、又は現在表示されている場合は表示を停止する。 In some embodiments, the trait has one or more active states and one or more inactive states, and displaying the indication is such that the trait is at least one of the one or more active states. Follow the judgment that there is. In some embodiments, some actions need to be active before the indication associated with the action is displayed in the camera user interface, but some actions are associated with the action. The indication does not have to be active before it appears in the camera user interface. In some embodiments, the indication is not displayed, or is displayed if it is currently displayed, according to the determination that the property is inactive (eg, changed to be inactive). Stop.
いくつかの実施形態では、特性は第1のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が有効化されていることである。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0〜10ルクスの範囲)にあると判定すると、フラッシュ動作はアクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にあると判定するとアクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the characteristic is the first flash operation setting and the current state of the characteristic is that the flash operation is enabled. In some embodiments, when the flash is set to automatic, the amount of light in the field of view of one or more cameras with an electronic device (eg, 600) is within the flash range (eg, in the range of 0-10 lux). If so, the flash operation is active. A flash operation that activates when an electronic device determines that the amount of light in the field of view of one or more cameras is within the flash range reduces power consumption by allowing the user to use the device more efficiently. And improve the battery life of the device.
いくつかの実施形態では、特性は第2のフラッシュ動作設定であり、特性の現在の状態は、フラッシュ動作が無効化されていることである(例えば、示す、示す表現を表示する)。いくつかの実施形態では、フラッシュが自動に設定されている場合、電子デバイス(例えば、600)が1つ以上のカメラの視野内の光量がフラッシュ範囲内(例えば、0〜10ルクスの範囲)にないと判定すると、フラッシュ動作は非アクティブである。電子デバイスが1つ以上のカメラの視野内の光量がフラッシュ範囲内にないと判定すると非アクティブになるフラッシュ動作は、ユーザがデバイスをより効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであり、電子デバイス(例えば、600)が、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応答して、静止画像及びビデオ(例えば、動画)をキャプチャするように構成される。特性が画像キャプチャモード設定であり、特性の現在の状態が、画像キャプチャモードが有効化されていることであるときに、静止画像及びビデオをキャプチャすることにより、ユーザが、静止画像及びビデオを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second flash operation setting, and the current state of the characteristic is that the flash operation is disabled (eg, show, show representation). In some embodiments, when the flash is set to automatic, the amount of light in the field of view of one or more cameras with an electronic device (eg, 600) is within the flash range (eg, in the range of 0-10 lux). If it is determined that there is no flash operation, the flash operation is inactive. A flash operation that deactivates when an electronic device determines that the amount of light in the field of view of one or more cameras is not within the flash range reduces power usage by allowing the user to use the device more efficiently. Reduce and improve device battery life. In some embodiments, the characteristic is an image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and an electronic device (eg, 600) is required to capture the media. It is configured to capture still images and videos (eg, moving images) in response to the corresponding input (eg, a single input). By capturing still images and videos when the property is in the image capture mode setting and the current state of the property is that the image capture mode is enabled, the user can quickly capture the still images and videos. And it makes it possible to capture easily. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.
いくつかの実施形態では、特性は第2の画像キャプチャモード設定であり、特性の現在の状態は、第2の画像キャプチャモードが有効化されていることである。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアをキャプチャする要求に対応する入力(例えば、単一の入力)に応答して、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、カメラメディアに対する要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラを介して、高ダイナミックレンジイメージング画像であるメディアをキャプチャする。特性が第2の画像キャプチャモード設定であり、特性の現在の状態が、第2の画像キャプチャモードが有効化されていることであるときに、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャすることにより、ユーザが、高ダイナミックレンジイメージング効果を使用してメディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the characteristic is a second image capture mode setting, and the current state of the characteristic is that the second image capture mode is enabled. In some embodiments, the electronic device (eg, 600) captures the media using a high dynamic range imaging effect in response to an input (eg, a single input) that corresponds to the request to capture the media. It is configured to do. In some embodiments, in response to receiving a request for camera media, an electronic device (eg, 600) captures the media, which is a high dynamic range imaging image, through one or more cameras. Capture media using a high dynamic range imaging effect when the characteristic is the second image capture mode setting and the current state of the characteristic is that the second image capture mode is enabled. This allows the user to quickly and easily capture the media using the high dynamic range imaging effect. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.
いくつかの実施形態では、カメラコントロール領域(例えば、606)は、表示デバイスの第1の側に(例えば、ディスプレイ領域の底部に)隣接して表示され、インジケーションは、第1の側と反対側(カメラディスプレイ領域の上部)の表示デバイスの第2の側(例えば、1つ以上のカメラの場所に最も近い側)に隣接して表示される。 In some embodiments, the camera control area (eg, 606) is displayed adjacent to the first side of the display device (eg, at the bottom of the display area) and the indication is opposite to the first side. Side (upper part of the camera display area) is displayed adjacent to a second side of the display device (eg, the side closest to the location of one or more cameras).
いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して(726)、第1のコントロールアフォーダンスが第1のタイプ(例えば、対応するインジケーションが常に示されているタイプ(例えば、フラッシュコントロール))のものであるという判定に従って、電子デバイス(例えば、600)は、第1のコントロールに関連付けられた第2のインジケーションを表示する(例えば、第1のコントロールに関連付けられた特性の状態に関係なく、第2のインジケーションが表示される)(728)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるという判定、及び第1のコントロールに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)がアクティブ状態にあるという判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示する(730)。いくつかの実施形態では、第1のコントロールアフォーダンスを表示したことに応答して、第1のコントロールアフォーダンスが第1のタイプとは異なる第2のタイプ(例えば、対応するインジケーションが条件付きで示されるタイプ)のものであるという判定、及び第1のコントロールに関連付けられた電子デバイス(例えば、600)の第2の特性(例えば、設定)が非アクティブ状態にあるという判定に従って、電子デバイスは、第1のコントロールに関連付けられた第2のインジケーションを表示するのをやめる。いくつかの実施形態では、コントロールに関連付けられたいくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要があるが、いくつかの動作は、動作に関連付けられたインジケーションがカメラユーザインタフェース内に表示される前にアクティブである必要はない。 In some embodiments, in response to displaying the first control affordance (726), the first control affordance is of the first type (eg, the type in which the corresponding indication is always shown (eg, eg). , Flash control)), the electronic device (eg, 600) displays a second indication associated with the first control (eg, a characteristic associated with the first control). A second indication is displayed regardless of the state of) (728). In some embodiments, in response to displaying the first control affordance, a second type in which the first control affordance is different from the first type (eg, the corresponding indication is conditionally indicated). According to the determination that the electronic device (eg, 600) is of the type that is active, and that the second characteristic (eg, setting) of the electronic device (eg, 600) associated with the first control is active, the electronic device is second. Display the second indication associated with one control (730). In some embodiments, in response to displaying the first control affordance, a second type in which the first control affordance is different from the first type (eg, the corresponding indication is conditionally indicated). According to the determination that the electronic device (eg, 600) is of the type that is inactive, and that the second characteristic (eg, setting) of the electronic device (eg, 600) associated with the first control is inactive. Stop displaying the second indication associated with the first control. In some embodiments, some actions associated with the control need to be active before the indication associated with the action is displayed in the camera user interface, but some actions are The indication associated with the action does not have to be active before it appears in the camera user interface.
条件の変化を検出したことに応答して(712)、第2の既定の条件(例えば、電子デバイスが三脚上に位置する)(例えば、第1の既定の条件とは異なる既定の条件)が満たされている(例えば、現在満たされた)という判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンス(例えば、タイマー設定アフォーダンス)(例えば、第2の既定の条件が満たされた結果としてアクティブ又は有効化されているカメラの設定に対応するコントロールアフォーダンス)を(例えば、自動的に、更なるユーザ入力を必要とせずに)表示する(716)。第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示することは、第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、コントロールアフォーダンスは、既定の条件に関連付けられたカメラ設定を表す外観(例えば、フラッシュ設定を表すカミナリ)を有する。いくつかの実施形態では、コントロールアフォーダンスが選択されると、既定の条件に関連付けられたカメラ設定の状態を変更するための設定インタフェースが表示される。 In response to detecting a change in condition (712), a second default condition (eg, the electronic device is located on a tripod) (eg, a default condition different from the first default condition) According to the determination that it is met (eg, currently met), the electronic device (eg, 600) has met a second control affordance (eg, timer setting affordance) (eg, a second default condition). As a result, the control affordances corresponding to the active or activated camera settings are displayed (eg, automatically, without requiring further user input) (716). Displaying the second control affordance according to the determination that the second predetermined condition is met provides quick and convenient access to the second control affordance. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). (By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. Will be done. In some embodiments, the control affordance has an appearance that represents the camera settings associated with the default conditions (eg, a kaminari that represents the flash settings). In some embodiments, when control affordances are selected, a configuration interface is displayed for changing the state of camera settings associated with default conditions.
いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1及び第2の既定の条件が満たされているという判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示する。条件の変化を検出したことに応答して、第1及び第2の既定の条件が満たされているという判定に従って、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスを同時に表示することにより、ユーザに、第1のコントロールアフォーダンス及び第2のコントロールアフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device (eg, 600) is further subjected to a first determination in response to the detection of a change in condition that the first and second predetermined conditions are met. Control affordance and second control affordance are displayed at the same time. By simultaneously displaying the first control affordance and the second control affordance according to the determination that the first and second predetermined conditions are satisfied in response to the detection of the change in the condition, the user is informed. Provides quick and convenient access to the first control affordance and the second control affordance. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, multiple affordances are displayed when multiple conditions are met.
いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないという判定に従って、電子デバイス(例えば、600)は、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示するのをやめる。条件の変化を検出したことに応答して、第1の既定の条件が満たされており、かつ第2の既定の条件が満たされていないという判定に従って、第1のコントロールアフォーダンスを表示する一方で、第2のコントロールアフォーダンスを表示するのをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electron is further determined in response to the detection of a change in condition that the first predetermined condition is met and the second predetermined condition is not met. The device (eg, 600) displays the first control affordance while stopping displaying the second control affordance. While displaying the first control affordance according to the determination that the first default condition is met and the second default condition is not met in response to detecting a change in condition. By stopping displaying the second control affordance, the user has quick and easy access to the control affordances that are likely to be needed and / or used, while the user is unlikely to be needed and / or used. Do not access control affordances quickly and easily. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、更に、条件の変化を検出したことに応答して、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているという判定に従って、電子デバイス(例えば、600)は、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示するのをやめる。条件の変化を検出したことに応答して、第1の既定の条件が満たされておらず、かつ第2の既定の条件が満たされているという判定に従って、第2のコントロールアフォーダンスを表示する一方で、第1のコントロールアフォーダンスを表示するのをやめることにより、ユーザは、必要及び/又は使用されそうなコントロールアフォーダンスへ、迅速かつ容易にアクセスし、一方、ユーザは、必要及び/又は使用されそうでないコントロールアフォーダンスへ、迅速かつ容易にアクセスしない。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、それぞれの既定の条件が満たされると、既定の条件に関連付けられたそれぞれのアフォーダンスのみが表示される。いくつかの実施形態では、電子は、複数の追加のコントロールアフォーダンス(例えば、楕円アフォーダンス)にナビゲートするアフォーダンス(例えば、614)の選択を受信する。いくつかの実施形態では、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンス(例えば、614)の選択を受信したことに応答して、電子デバイス(例えば、600)は、(第1のコントロール及び/又は第2のコントロールアフォーダンスを含む)カメラユーザインタフェース内の複数のコントロールアフォーダンス(例えば、626)のうちの少なくともいくらかを表示する。いくつかの実施形態では、既定の条件が満たされると、電子デバイス(例えば、600)は、アフォーダンスが複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスをポップアウトするとアニメーションを表示することができる。いくつかの実施形態では、複数のコントロールアフォーダンスは、第1又は第2のコントロールアフォーダンスのうちの少なくとも1つを含む、複数の追加のコントロールアフォーダンス(例えば、複数のカメラ設定アフォーダンスを表示するアフォーダンス)にナビゲートするアフォーダンス(例えば、618)を含む。これらの実施形態のうちのいくつかでは、第1の既定の条件が満たされているという判定に従って、第1のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。これらの実施形態のうちのいくつかでは、第2の既定の条件が満たされているという判定に従って、第2のアフォーダンスは、複数の追加のコントロールアフォーダンスにナビゲートするアフォーダンスに隣接して表示される(例えば、追加のコントロールアフォーダンスの隣に、追加のコントロールアフォーダンスを備えたバウンダーによって鳴らされる)。 In some embodiments, further, in response to the detection of a change in condition, according to the determination that the first default condition is not met and the second default condition is met. The electronic device (eg, 600) displays the second control affordance while stopping displaying the first control affordance. While displaying the second control affordance according to the determination that the first default condition is not met and the second default condition is met in response to detecting a change in condition. By stopping displaying the first control affordance, the user can quickly and easily access the control affordances that are likely to be needed and / or used, while the user is likely to be needed and / or used. Not access to control affordances quickly and easily. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, when each default condition is met, only the respective affordances associated with the default condition are displayed. In some embodiments, the electron receives a selection of affordances (eg, 614) that navigate to a plurality of additional control affordances (eg, elliptical affordances). In some embodiments, the electronic device (eg, 600) responds to receiving a selection of affordances (eg, 614) navigating to a plurality of additional control affordances (eg, first control and / /). Or display at least some of the plurality of control affordances (eg, 626) in the camera user interface (including a second control affordance). In some embodiments, when certain conditions are met, the electronic device (eg, 600) can display an animation as the affordance pops out an affordance that navigates to multiple additional control affordances. In some embodiments, the plurality of control affordances becomes a plurality of additional control affordances (eg, an affordance displaying multiple camera setting affordances), including at least one of the first or second control affordances. Includes navigating affordances (eg, 618). In some of these embodiments, the first affordance is displayed adjacent to the affordance navigating to a plurality of additional control affordances, according to the determination that the first predetermined condition is met. (For example, next to an additional control affordance, it is sounded by a bouncer with an additional control affordance). In some of these embodiments, the second affordance is displayed adjacent to the affordance navigating to a plurality of additional control affordances, according to the determination that the second predetermined condition is met. (For example, next to an additional control affordance, it is sounded by a bouncer with an additional control affordance).
いくつかの実施形態では、1つ以上のカメラの視野の表現が、第1のアフォーダンス及び/又は第2のアフォーダンスを含むカメラユーザインタフェースの一部分に対して(例えば、わたって)延在する。いくつかの実施形態では、カメラユーザインタフェースは、表示デバイスの表示エリアの全体に対して延在する。いくつかの実施形態では、表現(例えば、プレビュー)は、カメラユーザインタフェースに含まれる全てのコントロールの下に表示される(例えば、ボタンが表現の部分の上に示されるように透明又は半透明に表示される)。 In some embodiments, the representation of the field of view of one or more cameras extends (eg, across) to a portion of the camera user interface that includes a first affordance and / or a second affordance. In some embodiments, the camera user interface extends over the entire display area of the display device. In some embodiments, the representation (eg, preview) is displayed under all controls included in the camera user interface (eg, transparent or translucent as the buttons are shown above the representation portion). Is displayed).
なお、方法700に関して上述したプロセス(例えば、図7A〜図7C)の詳細はまた、後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the process described above with respect to the method 700 (eg, FIGS. 7A-7C) can also be applied in a similar manner to the methods described below. For example,
図8A〜図8Vは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図9A〜図9Cにおける処理を含む、以下で説明される処理を例示するために使用される。 8A-8V show exemplary user interfaces for displaying media controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 9A-9C.
図8Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図8Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビューは、対象840及び周囲環境を含む。図8Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。
FIG. 8A shows an
図8Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。アニメーション化された画像状態インジケータ602dは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応答して、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。
As shown in FIG. 8A, the
図8Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図8Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。
As shown in FIG. 8A, the
図8Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図8Aにおいて、カメラモードアフォーダンス620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。メディアコレクション624は、最近キャプチャされた写真などのメディア(例えば、写真)の表現を含む。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態及び現在選択されているモードに基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに伝送される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイス600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。
As shown in FIG. 8A, the
図8Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する場所での上スワイプジェスチャ850a(コントロール領域606からインジケータ領域602に向かうスワイプ入力)を検出する。上スワイプジェスチャ850aを検出したことに応答して、デバイス600は、図8Bのユーザインタフェースを表示する。あるいは、図8Aでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850bを検出する。タップジェスチャ850bを検出したことに応答して、デバイス600は、図8Bのユーザインタフェースを同様に表示する。
In FIG. 8A, the
図8Bに示すように、上スワイプジェスチャ850a又はタップジェスチャ850bを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dの表示を停止する。いくつかの例では、デバイス600は、高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第1の1組のカメラ設定アフォーダンス626a〜626eを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a〜626eは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。例えば、アフォーダンス626aは、アクティブ化されると、フラッシュをオン/オフし、アフォーダンス626dは、アクティブ化されると、シャッタータイマーを設定するプロセスを開始する。
As shown in FIG. 8B, in response to detecting the
図8Bでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604に対応する場所での下スワイプジェスチャ850c(インジケータ領域602からコントロール領域606に向かうスワイプ入力)を検出する。下スワイプジェスチャ850cを検出したことに応答して、デバイス600は、図8Cのユーザインタフェースを表示する。あるいは、図8Bでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850dを検出する。タップジェスチャ850dを検出したことに応答して、デバイス600は、図8Cのユーザインタフェースを同様に表示する。
In FIG. 8B, the
図8Cに示すように、下スワイプジェスチャ850c又はタップジェスチャ850dを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの例では、デバイス600は、フラッシュインジケータ602a及びアニメーション化された画像状態インジケータ602dを再表示する。コントロール領域606の高さの低減に加えて、デバイス600は、カメラ設定アフォーダンス626の表示を、カメラモードアフォーダンス620に置き換える。図8Cでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所での右スワイプジェスチャ850eを検出する。
As shown in FIG. 8C, in response to detecting the
図8Dに示すように、右スワイプジェスチャ850eを検出したことに応答して、デバイス600は、メディアコレクション624の残りの部分をディスプレイ上にスライドし、追加のコントロールアフォーダンス614をカバーする。その結果、デバイス600は、追加のコントロールアフォーダンス614の表示を停止する。図8Dでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所での左スワイプジェスチャ850fを検出する。
As shown in FIG. 8D, in response to detecting the right swipe gesture 850e, the
図8Eに示すように、左スワイプジェスチャ850fを検出したことに応答して、デバイス600は、メディアコレクション624を左方向にディスプレイから部分的にオフするようにスライドし、追加のコントロールアフォーダンス614を見せる。その結果、デバイス600は、追加のコントロールアフォーダンス614を表示する。図8Eでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604(ライブプレビュー630上)に対応する場所での左スワイプジェスチャ850gを検出する。
In response to detecting the
左スワイプジェスチャ850g(図8E)を検出したことに応答して、デバイス600は、図8F〜図8Hのグラフィカルビュー間で遷移する。あるいは(又は加えて)、左スワイプジェスチャ850g(図8E)の開始を検出したことに応答して、デバイス600は、図8F〜図8Hのグラフィカルビュー間での遷移を開始し、図8F〜図8Gに示すように、遷移は、(ジェスチャのリフトオフを検出することなく)左スワイプジェスチャ850gが進行するにつれて継続する。
In response to detecting 850 g of left swipe gesture (FIG. 8E),
図8Fに示すように、デバイス600は、ライブプレビュー630をシフトすることなく、カメラディスプレイ領域604の境界を左(左スワイプジェスチャ850gの方向)にシフトする。カメラディスプレイ領域604をシフトすることにより、視覚境界部608の垂直部分を表示させ、カメラディスプレイ領域604が空いたエリア内(例えば、ディスプレイの右側)に着色された(例えば、灰色)オーバーレイを表示させ、それにより、ユーザに、デバイス600が左スワイプジェスチャ850gを検出していることを示す。図8Fにおいて、視覚境界部608の一部分は、リーダーによりわかりやすくするためにデバイス600の外側に(左側)表示され、デバイス600のユーザインタフェースのビジュアル要素ではない。図8Fでは、デバイス600は、インジケータ領域602のインジケータ602a及び602dの表示を停止する。同様に、デバイス600は、カメラモードアフォーダンス620を更新して、620bを左にスライドしてディスプレイからオフにし、かつ「Pano」カメラモード620fを右からディスプレイ上にスライドする。「Photo」カメラモードは、もはや現在のモードであると示されず、代わりに、ポートレートカメラモードが、現在のモードであると示される(「ポートレート」カメラモードアフォーダンス620dのテキストを太字にすることによって、及び/又はディスプレイの中心に置かれることによって)。図8Fでは、左スワイプ入力850gに応答して、デバイス600はまた、任意選択的に触知出力860を提供して、ユーザにカメラモードが変更されていることを示す。
As shown in FIG. 8F, the
図8Gでは、デバイス600は、カメラディスプレイ領域604に着色された(例えば、灰色;半透明)オーバーレイを重ね合わるか、及び/又はデバイス600は、ライブプレビュー630を暗くするか、及び/又はデバイス600は、ディスプレイを暗くするか、及び/又はデバイス600は、(ライブプレビュー630を含む)ディスプレイをぼかす。
In FIG. 8G, the
図8Hでは、左スワイプジェスチャ850gを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、アニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む(例えば、新たに選択されたモードは、フラッシュインジケータ602a及びf値インジケータ602eに対応する機能と互換性があるため)。いくつかの実施形態では、f値インジケータ602eは、f値(例えば、数値)のインジケーションを提供する。図8Hにおいて、ズームアフォーダンス622は、左にシフトすると、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)がカメラディスプレイ領域604内に表示される。いくつかの実施形態では、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図8Eと図8Hで同一である。図8Hの更新されたライブプレビュー630は、図8Eのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図8Eのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。
In FIG. 8H, in response to detecting the
図8Eに戻ると、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630上ではなく、カメラモードアフォーダンス620に対応する場所(コントロール領域606内)での左スワイプジェスチャ850hを検出する。ポートレートカメラモードに遷移している間にカメラディスプレイ領域604をシフトさせるスワイプジェスチャ850gとは対照的に、デバイスは、カメラディスプレイ領域604をシフトすることなく、図8Hのポートレートカメラモードに遷移する。したがって、デバイスは、カメラモードを遷移するための入力のいずれかを受信することができるが、更新されたカメラモードへの遷移中に異なるアニメーションを表示する。
Returning to FIG. 8E, the
図8Hでは、デバイス600は、タッチ感知面を使用して、追加のコントロールアフォーダンス614に対応する場所でのタップジェスチャ850iを検出する。図8Iに示すように、タップジェスチャ850iを検出したことに応答して、デバイス600は、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトアップし、それにより、インジケータ領域602の高さを低減し、コントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602a及びf値インジケータ602eの表示を停止する。いくつかの例では、デバイス600は、インジケータ領域の高さ低減モードにある間にインジケータ領域602内の任意のインジケータの表示を停止する。コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620の表示を、第2の1組のカメラ設定アフォーダンス626a、626c、626d〜626fを含むカメラ設定アフォーダンス626に置き換える。カメラ設定アフォーダンス626a、626c、626d〜626fは、アクティブ化されると、カメラ設定を変更する(又は変更するためのプロセスを開始させた)。第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスとは異なる。例えば、アフォーダンス626aは、写真カメラモード及びポートレートカメラモードの両方に対して表示されるが、ライブフォトを有効化/無効化するアフォーダンス626bは、ポートレートカメラモードに対して表示されず、代わりに、アクティブ化されると、f値を設定するプロセスを開始する、アフォーダンス626fが表示される。いくつかの実施形態では、カメラディスプレイ領域604上の図8Hでの上スワイプジェスチャを検出することにより、デバイス600に、図8Iのユーザインタフェースを同様に表示させる。
In FIG. 8H, the
図8Iでは、デバイス600は、タッチ感知面を使用して、ポートレートカメラモードにある間に、アスペクト比コントロールアフォーダンス626cに対応する場所(コントロール領域606内)でのタップジェスチャ850jを検出する。
In FIG. 8I, the
図8Jでは、タップジェスチャ850jを検出したことに応答して、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を拡張して、調整可能なアスペクト比コントロール818を表示し、これは、アクティブ化されると(例えば、タップにより)、カメラディスプレイ領域604のアスペクト比を変更する、複数のアフォーダンス818a〜1818dを含む。図8Jでは、4:3のアスペクト比アフォーダンス818bは、太字化されて、カメラディスプレイ領域604のアスペクト比が4:3(非正方形のアスペクト比)であることを示す。図8Jでは、調整可能なアスペクト比コントロール818を表示している間に、デバイス600は、タッチ感知面を使用して、正方形のアスペクト比アフォーダンス818aに対応する場所でのタップジェスチャ850kを検出する。
In FIG. 8J, in response to detecting the
図8Kでは、タップジェスチャ850kを検出したことに応答して、デバイス600は、カメラディスプレイ領域604のアスペクト比を正方形に変更する。その結果、デバイス600はまた、インジケータ領域602及びコントロール領域606の一方又は両方の高さを増加させる。図8Kに示すように、照明効果コントロール628は、コントロール領域606の高さが増加したため、現在、コントロール領域606内に表示される。
In FIG. 8K, in response to detecting the
図8Kでは、デバイス600は、タッチ感知面を使用して、「Photo」カメラモード620cに対応する場所でのタップジェスチャ850lを検出して、カメラが動作しているモードを変更する。
In FIG. 8K, the
図8Lでは、タップジェスチャ850lを検出したことに応答して、デバイス600は、ポートレートカメラモードから写真カメラモードにカメラモードを変更する。カメラモードが変更され、f値インジケータ602eがもはや表示されていないが、カメラディスプレイ領域604のサイズ、アスペクト比、及び場所は、図8K及び図8Lの両方において同じである。「Photo」カメラモードアフォーダンスは、現在、太字化されて、写真カメラモードが現在アクティブであることを示す。
In FIG. 8L, in response to detecting the tap gesture 850l, the
図8Lでは、デバイス600は、タッチ感知面を使用して、アスペクト比インジケータ602gに対応する場所でのタップジェスチャ850mを検出する。図8Kでは、タップジェスチャ850mを検出したことに応答して、デバイス600は、コントロール領域606内のカメラモードアフォーダンス620の表示を、調整可能なアスペクト比コントロール818の表示に置き換え、これは、アクティブ化されると(例えば、タップにより)、上述のように、カメラディスプレイ領域604のアスペクト比を変更する、アフォーダンス818a〜1818dを含む。
In FIG. 8L, the
図8Mでは、デバイス600は、タッチ感知面を使用して、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ850nを検出する。図8Nでは、タップジェスチャ850nを検出したことに応答して、デバイス600は、アスペクト比コントロールアフォーダンス626cの表示を収縮して、調整可能なアスペクト比コントロール818の表示を停止する。
In FIG. 8M, the
図8N〜図8Pのそれぞれでは、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ850o、850p、及び850qを検出する。タップジェスチャ850oに応答して、図8Oに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850pに応答して、図8Pに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。タップジェスチャ850qに応答して、図8Qに示すように、デバイス600は、ライブプレビュー630のズームを(例えば、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることによって)更新し、かつズームアフォーダンス622を更新して現在のズームを示す。図8M〜図8Qに通じて、コントロール領域606内のコントロールは変更されず、インジケータ領域602内のインジケータは変更されなかった。
In each of FIGS. 8N-8P, the
図8Qでは、カメラ設定アフォーダンス626を表示している間に、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所での下スワイプジェスチャ850rを検出する。下スワイプジェスチャ850rを検出したことに応答して、デバイス600は、カメラ設定アフォーダンス626の表示を、図8Rに示すように、カメラモードアフォーダンス620に置き換える。いくつかの実施形態では、デバイス600はまた、カメラディスプレイ領域604(同一のサイズ及びアスペクト比を維持しながら)及び視覚境界部608をシフトダウンし、それにより、インジケータ領域602の高さを増加させ、コントロール領域606の高さを減少させる。いくつかの実施形態では、正方形のアスペクト比により、カメラ設定アフォーダンス626が表示されている間にインジケータをより容易に収容する高さをインジケータ領域602が有することを可能にするため、デバイス600は、図8K〜図8Sのアスペクト比インジケータ602gの表示を維持する。
In FIG. 8Q, while displaying the
図8Rでは、カメラディスプレイ領域604が正方形のアスペクト比を有する間に、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ850sを検出する。タップジェスチャ850sを検出したことに応答して、デバイス600は、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真、ビデオ)をキャプチャする。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。更に、図8Sに示すようにタップジェスチャ850sを検出したことに応答して、デバイス600は、追加のコントロールアフォーダンス614の表示を、メディアコレクション624に置き換え、コレクションの上に新たにキャプチャされたメディアの表現を含む。
In FIG. 8R, the
図8Sでは、デバイス600は、タッチ感知面を使用して、メディアコレクション624に対応する場所でのタップジェスチャ850tを検出する。図8Tに示すようにタップジェスチャ850tを検出したことに応答して、デバイス600は、ライブプレビュー630の表示を停止し、代わりに、新たにキャプチャされたメディア(例えば、写真、ビデオのフレーム)の表現842を含む写真ビューワユーザインタフェースを表示する。デバイス600は、新たにキャプチャされたメディアの表現842と、新たにキャプチャされたメディアを編集するための編集アフォーダンス644aと、新たにキャプチャされたメディアを伝送するための送信アフォーダンス644bと、新たにキャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、新たにキャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、を同時に表示する。
In FIG. 8S, the
図8Tでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する場所でのタップジェスチャ850uを検出する。タップジェスチャ850uを検出したことに応答して、図8Uに示すように、デバイス600は、新たにキャプチャされたメディアを編集する編集ユーザインタフェースを表示する。編集ユーザインタフェースは、正方形のアスペクト比でメディアがキャプチャされたことを示すために、ハイライトされた正方形アスペクト編集アフォーダンス846aを備える、アスペクト編集アフォーダンス846a〜846dを含む。
In FIG. 8T, the
図8Uでは、デバイス600は、タッチ感知面を使用して、4:3アスペクト比編集アフォーダンス846bに対応する場所で4:3のタップジェスチャ850vを検出する。タップジェスチャ850vを検出したことに応答して、図8Vに示すように、正方形のアスペクト比で表示されるメディアの視覚コンテンツを維持し、4:3のアスペクト比を超えて視覚コンテンツを拡張する(シャッターアフォーダンス610上のタップジェスチャ850sに応答して、)キャプチャされた視覚コンテンツを追加しながら、デバイス600は、正方形のアスペクト比から4:3のアスペクト比へのメディアの表現の表示を更新する。加えて、4:3のアスペクト編集アフォーダンス846bは、メディアが拡張された4:3のアスペクト比で示されていることを示すためにハイライトされる。
In FIG. 8U, the
図9A〜図9Cは、いくつかの実施形態による電子デバイスを使用してメディアコントロールを表示するための方法を示すフロー図である。方法900は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
9A-9C are flow diagrams illustrating methods for displaying media controls using electronic devices according to some embodiments.
後述するように、方法900は、メディアコントロールを表示するための直感的な仕方を提供する。この方法は、メディアコントロールを表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(902)。カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラディスプレイ領域を含み、カメラディスプレイ領域は、1つ以上のカメラの視野の表現(例えば、630)を含む(904)。 The electronic device (eg, 600) displays the camera user interface via the display device (902). The camera user interface includes a camera display area (eg, an electronic device simultaneously displays within the camera user interface), and the camera display area includes a representation of the field of view of one or more cameras (eg, 630) (904). ..
カメラユーザインタフェースは、(例えば、電子デバイスがカメラユーザインタフェース内に同時に表示する)カメラコントロール領域(例えば、606)を含み、カメラコントロール領域は、第1の場所(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の上の場所)で複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む(906)。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現(例えば、630)の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイス(例えば、600)が静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。 The camera user interface includes a camera control area (eg, 606) (eg, an electronic device simultaneously displays within the camera user interface), and the camera control area is a first location (eg, image capture affordance (eg, active)). Multiple camera mode affordances (eg, 620) (eg, selectable user interface objects) (eg, selectable user interface objects) (eg, a location above the shutter afford) that captures an image of the content displayed within the camera display area. Includes affordance to select different camera modes (eg slow motion, video, photo, portrait, square, panorama, etc.) (906). In some embodiments, each camera mode (eg, video, photo (phot) / still, portrait, slow motion, panorama mode) is such that the camera (eg, camera sensor) captures the media. Multiple settings (eg, portrait camera) with multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). Mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if an electronic device (eg, 600) is configured to operate in still photo mode, then one or more cameras in the electronic device will have certain settings (eg, flash settings, 1) when activated. If the electronic device is configured to capture media of a first type (eg, a rectangular photo) with one or more filter settings) and operate in square mode, then one or more cameras in the electronic device When activated, it captures a second type of media (eg, a square photo) with certain settings (eg, flash settings and one or more filters) and electronically to operate in slow motion mode. When the device is configured, one or more cameras in the electronic device, when activated, have a third type (eg, slow) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media of media (motion video) and operate in portrait mode, one or more cameras of the electronic device will have a specific setting (eg, a specific type of light (eg, a specific type of light). For example, capturing media of a fifth type (eg, a portrait photo (eg, a photo with a blurred background)) having an amount of stage light, studio light, contour light, f-value, blur), When the electronic device is configured to operate in panoramic mode, one or more cameras of the electronic device have a fourth setting (eg, zoom, amount of field of view for moving and capturing). Capturing media of a type (eg, a panoramic photo (eg, a wide photo). In some embodiments, when switching between modes, the representation of the field of view (eg, 630) is a display of the media captured by the mode. This representation is in rectangular mode, while the electronic device (eg, 600) is operating in still photo mode, and while the electronic device is operating in square mode. This expression is square).
いくつかの実施形態では、複数のカメラ設定アフォーダンス(例えば、618a〜618d)は、メディアをキャプチャする第1の要求に応答して、表示されると、第1のアスペクト比(例えば、4×3、16×9)で表示されるメディアをキャプチャするように電子デバイス(例えば、600)を構成するアフォーダンス(例えば、618a〜618d)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。表示されると、メディアをキャプチャする第1の要求に応答して、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイスを構成するアフォーダンスを含むことにより、ユーザが、第1のアスペクト比を迅速かつ容易に設定及び/又は変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、必要な制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、アフォーダンス(例えば、618a〜618d)の選択を受信し、それに応じて、電子デバイスは、第1のアスペクト比を第2のアスペクト比に変更するために動かすことができるコントロール(例えば、境界部ボックス608)を表示する。 In some embodiments, the plurality of camera setting affordances (eg, 618a-618d), when displayed in response to the first request to capture the media, have a first aspect ratio (eg, 4x3). , 16x9) include affordances (eg, 618a-618d) (eg, selectable user interface objects) that make up an electronic device (eg, 600) to capture media displayed. When displayed, the user can first configure the electronic device to capture the media displayed in the first aspect ratio in response to the first request to capture the media. Allows the aspect ratio to be set and / or changed quickly and easily. By providing the necessary control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). By assisting the user in providing the proper input to the device and reducing user errors), and in addition, by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life. In some embodiments, the electronic device (eg, 600) receives a selection of affordances (eg, 618a-618d), and accordingly, the electronic device changes the first aspect ratio to the second aspect ratio. Display controls that can be moved to change (eg, border box 608).
いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1のズームレベル(例えば、1×ズーム)で表示される(908)。いくつかの実施形態では、第1のズームレベルで表示される1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第1の要求(例えば、表示デバイス上でのタップ)を受信する(910)。いくつかの実施形態では、表現(例えば、630)のズームレベルを変更する第1の要求を受信したことに応答して(912)、表現のズームレベルを変更する要求が、表現のズームレベルを上げる要求に対応するという判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第2の表現視野を第1のズームレベルよりも大きい第2のズームレベル(例えば、2×ズーム)で表示する(914)。いくつかの実施形態では、表現のズームレベルを変更する第1の要求を受信したことに応答して(912)、表現のズームレベルを変更する要求が、表現(例えば、630)のズームレベルを下げる要求に対応するという判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの第3の表現視野を第1のズームレベルよりも小さい第3のズーム(例えば、0.5×ズーム)レベルで表示する(916)。いくつかの実施形態では、ズームレベルの倍率間の差は、不均一である(例えば、0.5×と1×との間(例えば、0.5×差)及び1×と2×との間(例えば、1×差))。 In some embodiments, the representation of the field of view of one or more cameras (eg, 630) is displayed at the first zoom level (eg, 1x zoom) (908). In some embodiments, the electronic device (eg, 600) zooms the representation while displaying a representation (eg, 630) of the field of view of one or more cameras displayed at the first zoom level. Receive a first request to change the level (eg, a tap on the display device) (910). In some embodiments, in response to receiving a first request to change the zoom level of the representation (eg, 630) (912), the request to change the zoom level of the representation determines the zoom level of the representation. According to the determination that the demand for raising is met, the electronic device (eg, 600) has a second zoom level (eg, 2x zoom) that makes the second representation field of view of one or more cameras larger than the first zoom level. Is displayed (914). In some embodiments, in response to receiving a first request to change the zoom level of the representation (912), the request to change the zoom level of the representation determines the zoom level of the representation (eg, 630). According to the determination that the lowering request is met, the electronic device (eg, 600) has a third zoom (eg, 0.5 × zoom) that makes the third representation field of view of one or more cameras smaller than the first zoom level. ) Display at the level (916). In some embodiments, the difference between the magnifications of the zoom level is non-uniform (eg, between 0.5x and 1x (eg, 0.5x difference) and between 1x and 2x). Between (for example, 1 x difference)).
いくつかの実施形態では、第4のズームレベル(例えば、現在のズームレベル(例えば、0.5×、1×、又は2×ズーム))で1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、表現のズームレベルを変更する第2の要求(例えば、表示デバイス上でのタップ)を受信する(918)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第2のズームレベル(例えば、2×ズーム)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第4の表現を第3のズームレベル(例えば、0.5×ズーム)で表示する(922)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第3のズームレベル(例えば、0.5×ズーム)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第5の表現を第1のズームレベル(例えば、1×ズーム)で表示する(924)。いくつかの実施形態では、表現のズームレベルを変更する第2の要求を受信したことに応答して(920)、第4のズームレベルが第1のズームレベル(例えば、1×)である(及び、いくつかの実施形態では、表現のズームレベルを変更する第2の要求が、表現のズームレベルを上げる第2の要求に対応する)という判定に従って、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第6の表現を第2のズームレベル(例えば、2×)で表示する(926)。いくつかの実施形態では、カメラユーザインタフェースは、選択されると、1組の所定のズーム値を循環するアフォーダンス(例えば、622)を含む(例えば、0.5×から1×に、2×に循環し、0.5×に戻る、又は2×から1×に、0.5×に循環し、2×に戻る)。選択されると、1組の所定のズーム値を循環するアフォーダンスを提供することにより、選択可能な所定のズーム値の視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、ズームレベルが上限ズームレベル(例えば、2×)である場合、及びズームを上げる要求に応答して、電子デバイス(例えば、600)は、ズームレベルを0.5×に変更する。いくつかの実施形態では、ズームレベルが下限ズームレベル(例えば、0.5×)である場合、及びズームを下げる要求に応答して、電子デバイス(例えば、600)は、ズームレベルを2×に変更する。 In some embodiments, a fourth zoom level (eg, the current zoom level (eg, 0.5x, 1x, or 2x zoom)) represents the field of view of one or more cameras (eg, 630). ) Is displayed, the electronic device (eg, 600) receives a second request (eg, a tap on the display device) to change the zoom level of the representation (918). In some embodiments, in response to receiving a second request to change the zoom level of the representation (920), the fourth zoom level is the second zoom level (eg, 2x zoom). (And, in some embodiments, the electronic device (eg, 600) is subject to the determination that the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation). A fourth representation of the field of view of one or more cameras is displayed at a third zoom level (eg, 0.5 x zoom) (922). In some embodiments, in response to receiving a second request to change the zoom level of the representation (920), the fourth zoom level is the third zoom level (eg, 0.5 x zoom). (And in some embodiments, the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation) according to the determination (eg, 600). Displays a fifth representation of the field of view of one or more cameras at a first zoom level (eg, 1x zoom) (924). In some embodiments, the fourth zoom level is the first zoom level (eg, 1x) in response to receiving a second request to change the zoom level of the representation (920). And, in some embodiments, the electronic device (eg, 600) is 1 in accordance with the determination that the second requirement to change the zoom level of the representation corresponds to the second requirement to increase the zoom level of the representation). A sixth representation of the field of view of one or more cameras is displayed at a second zoom level (eg, 2x) (926). In some embodiments, the camera user interface, when selected, comprises an affordance (eg, 622) that circulates a set of predetermined zoom values (eg, from 0.5x to 1x to 2x). Cycle and return to 0.5x, or from 2x to 1x, circulate to 0.5x and back to 2x). When selected, it provides the user with visual feedback of selectable predetermined zoom values by providing an affordance that circulates a set of predetermined zoom values. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the electronic device (eg, 600) sets the zoom level to 0.5x when the zoom level is the upper limit zoom level (eg, 2x) and in response to a request to increase the zoom. change. In some embodiments, the electronic device (eg, 600) sets the zoom level to 2x when the zoom level is the lower limit zoom level (eg, 0.5x) and in response to a request to lower the zoom. change.
カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、カメラユーザインタフェース上で第1のジェスチャ(例えば、850g、850h、タッチジェスチャ(例えば、スワイプ))を検出する(928)。 While displaying the camera user interface, the electronic device (eg, 600) detects a first gesture (eg, 850g, 850h, touch gesture (eg, swipe)) on the camera user interface (928). ..
第1のジェスチャ(例えば、850g、850h)を検出したことに応答して、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、ジェスチャが第1のタイプ(例えば、カメラモードアフォーダンス上でのスワイプジェスチャ)(例えば、第1の場所でのジェスチャ)のジェスチャであるという判定に従って、第1の場所で1つ以上の追加のカメラモードアフォーダンス(例えば、620f、選択可能ユーザインタフェースオブジェクト)を表示する(932)(例えば、1つ以上の表示されたカメラモードアフォーダンスがもはや表示されず、1つ以上の追加のカメラモードアフォーダンスが第1の場所で表示されるように、複数のカメラモードアフォーダンスをスクロールする)ことを含む。ジェスチャが第1のタイプのジェスチャであるという判定に従って、1つ以上の追加のカメラモードアフォーダンスを表示することにより、ユーザが、他のカメラモードアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first gesture (eg, 850 g, 850 h), the electronic device (eg, 600) modifies the appearance of the camera control area (eg, 606) (930) and modifies this. Is added one or more at the first location according to the determination that the gesture is a gesture of the first type (eg, a swipe gesture on the camera mode affordance) (eg, a gesture at the first location). Display camera mode affordances (eg, 620f, selectable user interface objects) (932) (eg, one or more displayed camera mode affordances are no longer displayed and one or more additional camera mode affordances are displayed. Includes scrolling multiple camera mode affordances to be displayed in the first place). By displaying one or more additional camera mode affordances according to the determination that the gesture is the first type of gesture, the user can quickly and easily access the other camera mode affordances. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1のタイプのジェスチャは、複数のカメラモードアフォーダンス(例えば、620)(例えば、2つ以上のカメラモードアフォーダンス又は複数のカメラアフォーダンスに関連付けられた領域の一部分に対するスワイプ)のうちの少なくとも1つ上の接触の移動(例えば、850h、表示デバイス上のスワイプ)である。 In some embodiments, the first type of gesture is a plurality of camera mode affordances (eg, 620) (eg, a swipe over two or more camera mode affordances or a portion of the area associated with the plurality of camera affordances). The movement of the contact above at least one of them (eg, 850 h, swipe on the display device).
いくつかの実施形態では、ジェスチャは、第1のタイプのものであり、第1のジェスチャを検出することは、第1のジェスチャの第1の部分(例えば、初期部分、接触、それに続く第1の量の移動)及び第1のジェスチャの第2の部分(後続の部分、接触の移動の継続)を検出することを含む。いくつかの実施形態では、第1のジェスチャの第1の部分を検出したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む(例えば、包囲する、範囲内にある)(例えば、1つ以上のカメラの視野の表現(例えば、カメラプレビュー)の周囲に表示された境界部(例えば、フレーム))1つ以上の別個の境界部要素を含む境界部(例えば、608)(例えば、単一の連続する境界部又は各角部で別個の要素からなる境界部)を表示する。第1のジェスチャの第1の部分を検出したことに応答して、1つ以上のカメラの視野の表現の少なくとも一部分を取り囲む1つ以上の別個の境界部要素を含む境界部を表示することにより、第1のジェスチャの第1の部分が検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、第1のジェスチャの第2の部分を検出したことに応答して、電子デバイス(例えば、600)は、境界部の少なくとも一部分がディスプレイから平行移動され(表示デバイスの第1の縁部から平行移動され)、表示が停止されるまで、境界部(例えば、図8Fの608)を第1の方向に表示デバイスのディスプレイを横切って平行移動させる(例えば、動く、摺動する、遷移する)。第1のジェスチャの第2の部分を検出したことに応答して、境界部の少なくとも一部分がディスプレイから平行移動され、表示が停止されるまで、境界部を第1の方向に表示デバイスのディスプレイを横切って平行移動させることにより、第1のジェスチャが(例えば、完全に)検出されたという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the gesture is of the first type, and detecting the first gesture is a first part of the first gesture (eg, an initial part, a contact, followed by a first part). Includes detecting the second part of the first gesture (the subsequent part, the continuation of the movement of the contact). In some embodiments, in response to detecting the first portion of the first gesture, the electronic device (eg, 600) represents the field of view of one or more cameras via the display device. At least one or more boundaries (eg, frames) that surround (eg, surround, are within range) of at least a portion (eg, boundaries (eg, frames) that appear around a representation of the field of view of one or more cameras (eg, camera preview)). Displays a boundary (eg, 608) containing separate boundary elements of (eg, a single contiguous boundary or a boundary consisting of separate elements at each corner). By displaying a boundary containing one or more distinct boundary elements that surround at least a portion of the field of view representation of one or more cameras in response to detecting the first part of the first gesture. , Provides the user with visual feedback that the first part of the first gesture has been detected. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, in response to detecting the second portion of the first gesture, the electronic device (eg, 600) has at least a portion of its boundary translated from the display (the first of the display devices). Translated from the edge of 1), the boundary (eg, 608 in FIG. 8F) is translated across the display of the display device in a first direction (eg, moving, sliding) until the display is stopped. To make a transition). In response to detecting the second part of the first gesture, the display of the display device is displayed with the boundary in the first direction until at least a part of the boundary is translated from the display and the display is stopped. By translating across, it provides the user with visual feedback that the first gesture has been detected (eg, completely). Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、第1のジェスチャの第2の部分を検出することは、第1の方向に動く第2の接触を検出することを含む。 In some embodiments, detecting the second portion of the first gesture comprises detecting a second contact moving in the first direction.
いくつかの実施形態では、第2の接触は、1つ以上のカメラの視野の表現上(例えば、表現の一部分上)で検出される。いくつかの実施形態では、境界部を平行移動させる速度は、第1の方向への第2の接触の移動速度に比例する(例えば、接触が動くと境界部も動く)。境界部を平行移動させる速度が第1の方向への第2の接触の移動速度に比例することにより、境界部の平行移動の速度が第2の接触の平行移動速度に対応するという視覚的フィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the second contact is detected on the representation of the field of view of one or more cameras (eg, on a portion of the representation). In some embodiments, the speed at which the boundary is translated is proportional to the speed at which the second contact moves in the first direction (eg, when the contact moves, so does the boundary). Visual feedback that the speed of translation of the boundary corresponds to the speed of translation of the second contact by making the speed of translation of the boundary proportional to the speed of translation of the second contact in the first direction. To the user. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、境界部を平行移動させることは、境界部によって囲まれた1つ以上のカメラの視野の表現(例えば、630)の少なくとも一部分の視覚外観(例えば、図8Gのように薄暗い)を変更することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、表示デバイス全体の輝度レベルを低下させる。 In some embodiments, translating the boundaries is the visual appearance of at least a portion of the field of view representation (eg, 630) of one or more cameras surrounded by the boundaries (eg, as in FIG. 8G). Dim) involves changing. In some embodiments, the electronic device (eg, 600) reduces the brightness level of the entire display device.
第1のジェスチャを検出したことに応答して、電子デバイス(例えば、600)は、カメラコントロール領域(例えば、606)の外観を修正し(930)、この修正することには、ジェスチャが第1のタイプ(例えば、カメラモードアフォーダンスのうちの1つ以外のカメラコントロール領域内のアフォーダンスの選択)(例えば、第1の場所以外の場所でのジェスチャ(例えば、カメラの視野の表現上での上スワイプ))とは異なる第2のタイプのジェスチャであるという判定に従って、複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)の表示を停止し、及び第1の場所で複数のカメラ設定(例えば、626、カメラ動作を制御する)アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(934)ことを含む。いくつかの実施形態では、カメラ設定アフォーダンスは、現在選択されているカメラモードの画像キャプチャを調整する(例えば、カメラモードアフォーダンスをカメラ設定アフォーダンスに置き換える)設定(例えば、画像キャプチャの動作を調整するコントロール)である。 In response to detecting the first gesture, the electronic device (eg, 600) modifies the appearance of the camera control area (eg, 606) (930), to which the gesture first modifies. Type (eg, selection of affordance in a camera control area other than one of the camera mode affordances) (eg, gestures outside of the first location (eg, swipe up on the representation of the camera's field of view) )) Stop displaying multiple camera mode affordances (eg, 620) (eg, selectable user interface objects), and multiple in the first location, according to the determination that it is a second type of gesture different from)). Camera settings (eg, 626, controlling camera behavior) Affordability (eg, selectable user interface objects) (eg, camera settings for the selected camera mode (eg, flash, timer, filter effect, f value, aspect ratio, etc.) Includes displaying (934) an affordance to select or change (live photo, etc.). In some embodiments, the camera setting affordance is a setting (eg, a control that adjusts the behavior of the image capture) that adjusts the image capture for the currently selected camera mode (eg, replaces the camera mode affordance with the camera setting affordance). ).
いくつかの実施形態では、第2のタイプのジェスチャは、カメラディスプレイ領域内の接触の移動(例えば、表示デバイス上でのスワイプ)である。 In some embodiments, the second type of gesture is the movement of contact within the camera display area (eg, a swipe on the display device).
いくつかの実施形態では、カメラコントロール領域(例えば、606)は、複数のカメラ設定アフォーダンスを表示するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を更に含み、第2のタイプのジェスチャは、1つ以上のカメラ設定を表示するアフォーダンスの選択(例えば、タップ)である。いくつかの実施形態では、1つ以上のカメラ設定を表示するアフォーダンスを表示している間に、及び1つ以上のカメラモードアフォーダンス、1つ以上のカメラ設定アフォーダンス、1つ以上のカメラ設定アフォーダンスに対応する1つ以上のオプションを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラ設定を表示するアフォーダンスの選択を受信する。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラモードアフォーダンス(例えば、620)又は1つ以上のカメラ設定アフォーダンスの表示を停止する。 In some embodiments, the camera control area (eg, 606) further includes affordances (eg, selectable user interface objects) that display multiple camera setting affordances, and the second type of gesture is one or more. Affordance selection (eg, tap) to display the camera settings of. In some embodiments, while displaying an affordance displaying one or more camera settings, and to one or more camera mode affordances, one or more camera setting affordances, or one or more camera setting affordances. While displaying one or more corresponding options, the electronic device (eg, 600) receives an affordance selection to display one or more camera settings. In some embodiments, in response to receiving a request, the electronic device (eg, 600) stops displaying one or more camera mode affordances (eg, 620) or one or more camera setting affordances. do.
いくつかの実施形態では、カメラユーザインタフェースを表示することは、キャプチャ設定の状態のグラフィカルインジケーション(例えば、フラッシュ状態インジケータ)を含むアフォーダンス(例えば、602a)(例えば、選択可能ユーザインタフェースオブジェクト)を表示することを更に含む。キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することにより、ユーザが、キャプチャ設定の状態を迅速かつ容易に認識することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、第2のタイプのジェスチャは、インジケーションの選択に対応する。 In some embodiments, displaying the camera user interface displays an affordance (eg, 602a) (eg, selectable user interface object) that includes a graphical indication of the state of the capture settings (eg, a flash status indicator). Further includes doing. By displaying an affordance that includes a graphical indication of the state of the capture settings, it allows the user to quickly and easily recognize the state of the capture settings. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the second type of gesture corresponds to the choice of indication.
いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、カメラユーザインタフェース上での第2のジェスチャ(例えば、624、以前にキャプチャされた)(例えば、スワイプ(例えば、ディスプレイスクリーンの縁部からのスワイプ))を検出する。いくつかの実施形態では、第2のジェスチャを検出したことに応答して、電子デバイス(例えば、600)は、以前にキャプチャされたメディアの第1の表現(例えば、624)(例えば、互いの上に積み重ねられて表示されるメディアの1つ以上の表現)を表示する。第2のジェスチャを検出したことに応答して、以前にキャプチャされたメディアの第1の表現を表示することにより、ユーザが、以前にキャプチャされたメディアの第1の表現を迅速かつ容易に閲覧することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の表現は、カメラコントロール領域(例えば、606)内に表示される。 In some embodiments, the electronic device (eg, 600) has a second gesture on the camera user interface (eg, 624, etc.) that responds to a request to display a first representation of previously captured media. Detects previously captured) (eg, a swipe (eg, a swipe from the edge of the display screen)). In some embodiments, in response to detecting a second gesture, the electronic device (eg, 600) has a first representation of previously captured media (eg, 624) (eg, of each other). Display one or more representations of media that are stacked and displayed on top of each other. By displaying the first representation of previously captured media in response to detecting a second gesture, the user can quickly and easily browse the first representation of previously captured media. Allows you to. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the first representation is displayed within the camera control area (eg, 606).
いくつかの実施形態では、第1の場所で複数のカメラ設定アフォーダンスを表示することは、第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモード(例えば、ポートレートモード)でキャプチャするように電子デバイス(例えば、600)が構成されているという判定に従って、第1の場所で第1の1組のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)を表示することを含む。第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモードでキャプチャするように電子デバイスが構成されているという判定に従って、第1の場所で第1の1組のカメラ設定アフォーダンスを表示することにより、ユーザに、第1の1組のカメラ設定アフォーダンスへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、第1の場所で複数のカメラ設定アフォーダンス(例えば、626)を表示することは、第2のタイプのジェスチャが検出された間に、メディアを第1のカメラモードとは異なる第2のカメラモード(例えば、ビデオモード)でキャプチャするように電子デバイス(例えば、600)が構成されているという判定に従って、第1の場所で第1の複数のカメラ設定とは異なる第2の第1のカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、ビデオ効果アフォーダンス)を表示することを含む。 In some embodiments, displaying multiple camera setting affordances in the first location allows the media to be placed in the first camera mode (eg, portrait mode) while the second type of gesture is detected. According to the determination that the electronic device (eg, 600) is configured to capture in, a first set of camera setting affordances (eg, selectable user interface objects) (eg, lighting effect affordances) in a first place. ) Is included. A first set of camera setting affordances at the first location, according to the determination that the electronic device is configured to capture the media in the first camera mode while the second type of gesture is detected. By displaying, the user is provided with quick and convenient access to a first set of camera setting affordances. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, displaying multiple camera setting affordances (eg, 626) in the first location allows the media to be in the first camera mode while a second type of gesture is detected. A second location that differs from the first plurality of camera settings in the first location, according to the determination that the electronic device (eg, 600) is configured to capture in a different second camera mode (eg, video mode). Includes displaying a first camera setting affordance (eg, selectable user interface object) (eg, video effect affordance).
いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a)を含み、第2の1組のカメラ設定アフォーダンスは、第1のカメラ設定アフォーダンス(例えば、626a、ポートレートモード及びビデオモードの両方に含まれるフラッシュアフォーダンス)を含む。 In some embodiments, the first set of camera setting affordances includes a first camera setting affordance (eg, 626a) and the second set of camera setting affordances is a first camera setting affordance (eg, 626a). For example, 626a, flash affordances included in both portrait and video modes).
いくつかの実施形態では、第1のカメラモードは、静止写真キャプチャモードであり、第1の1組のカメラ設定アフォーダンスは、フラッシュ設定に対応するインジケーション(例えば、視覚インジケーション)を含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)と、ライブ設定(例えば、オンのとき、動画(例えば、ファイル拡張子がGIFの画像)を作成する設定)に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、ライブ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、ライブ設定をオン/オフする)と、アスペクト比設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、アスペクト比設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、アスペクト比設定をオン/オフする、及び/又は調整可能なコントロールを表示して、表示デバイス上に表示された表現(例えば、画像、ビデオ)のアスペクト比を調整する)と、タイマー設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a still photo capture mode, and the first set of camera setting affordances includes affordances that include indications (eg, visual indications) that correspond to the flash settings. For example, affordances (eg, selectable users) that include an indication that corresponds to a selectable user interface object) and a live setting (eg, a setting that creates a video (eg, an image with a file extension of GIF) when on). Interface object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the live setting; in some embodiments, in response to receiving an indication selection. , Electronic devices turn live settings on / off) and affordances (eg, selectable user interface objects) that include indications corresponding to aspect ratio settings (in some embodiments, electronic devices have aspect ratio settings. Receives an affordance selection that includes the corresponding indication; in some embodiments, in response to receiving the indication selection, the electronic device turns the aspect ratio setting on / off and / or View adjustable controls to adjust the aspect ratio of the representation (eg, image, video) displayed on the display device) and affordances (eg, selectable user interface) that include indications corresponding to timer settings. Object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the timer setting; in some embodiments, in response to receiving an indication selection, The electronic device responds to the filter settings when the timer setting is turned on / off and / or an adjustable control is displayed to adjust the time after the capture is started and before the image is captured). Affordances Containing Indications (eg, Selectable User Interface Objects) (In some embodiments, the electronic device receives a selection of affordances comprising the indications corresponding to the filter settings; in some embodiments, the affordances. In response to receiving a selection of options, the electronic device turns the filter settings on / off and / or adjusts them. It includes one or more affordances selected from the group consisting of (displaying possible controls and adjusting the filters used by electronic devices when capturing images). In some embodiments, the choice of affordance causes an electronic device (eg, 600) to set a setting corresponding to the affordance, or a user interface for setting the setting (eg, an option (eg, slider, affordance, eg)). )) Is displayed.
いくつかの実施形態では、第1のカメラモードは、ポートレートモードであり、第1の1組のカメラ設定アフォーダンス(例えば、626)は、深度コントロール設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、深度コントロール設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、深度コントロール設定をオン/オフする、及び/又は調整可能なコントロールを表示して、被写界深度を調整して、デバイスの背景をぼかす)と、フラッシュ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フラッシュ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、選択可能ユーザインタフェース要素を表示して、電子デバイスのフラッシュ設定を構成する(例えば、フラッシュ設定を自動、オン、オフに設定する))と、タイマー設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、タイマー設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、タイマー設定をオン/オフする、及び/又は調整可能なコントロールを表示して、キャプチャが開始された後、画像がキャプチャされる前の時間を調整する)と、フィルタ設定に対応する視覚インジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、フィルタ設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、フィルタ設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用するフィルタを調整する)と、照明設定に対応するインジケーションを含むアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(いくつかの実施形態では、電子デバイスは、照明設定に対応するインジケーションを含むアフォーダンスの選択を受信する;いくつかの実施形態では、インジケーションの選択を受信したことに応答して、電子デバイスは、照明設定をオン/オフする、及び/又は調整可能なコントロールを表示して、画像をキャプチャするときに電子デバイスが使用する特定の光設定(例えば、スタジオ光設定、舞台照明設定)を調整する(例えば、光量を増加/減少させる))と、からなる群から選択される1つ以上のアフォーダンスを含む。いくつかの実施形態では、アフォーダンスの選択により、電子デバイス(例えば、600)に、アフォーダンスに対応する設定を設定させるか、又は設定を設定するためのユーザインタフェース(例えば、オプション(例えば、スライダ、アフォーダンス))を表示させる。 In some embodiments, the first camera mode is a portrait mode and the first set of camera setting affordances (eg, 626) includes affordances that include indications corresponding to depth control settings (eg, 626). Selectable user interface object) (In some embodiments, the electronic device receives an affordance selection that includes an indication corresponding to the depth control setting; in some embodiments, it has received an indication selection. In response, the electronic device turns the depth control settings on and off, and / or displays adjustable controls to adjust the depth of field and blur the background of the device) and to the flash settings. Affordances with corresponding visual indications (eg, selectable user interface objects) (in some embodiments, the electronic device receives a selection of affordances with indications corresponding to the flash settings; some embodiments. In response to receiving an indication selection, the electronic device displays selectable user interface elements and configures the electronic device's flash settings (eg, set the flash settings to automatic, on, off). )) And affordances that include visual indications that correspond to timer settings (eg, selectable user interface objects) (in some embodiments, the electronic device selects affordances that include indications that correspond to timer settings. Receiving; In some embodiments, in response to receiving an indication selection, the electronic device turns the timer setting on / off and / or displays an adjustable control and the capture begins. After being done, adjust the time before the image is captured) and affordances (eg, selectable user interface objects) that include visual indications corresponding to the filter settings (in some embodiments, the electronic device is Receives an affordance selection that includes an indication that corresponds to the filter setting; in some embodiments, in response to receiving the indication selection, the electronic device turns the filter setting on and off, and / Or display adjustable controls to adjust the filters used by electronic devices when capturing images) and lighting settings Affordances that include indications corresponding to (eg, selectable user interface objects) (in some embodiments, the electronic device receives a selection of affordances that include indications that correspond to the lighting settings; some embodiments. In response to receiving an indication selection, the electronic device turns lighting settings on / off and / or displays adjustable controls that the electronic device uses when capturing images. Adjusting a particular light setting (eg, studio light setting, stage lighting setting) (eg, increasing / decreasing the amount of light) includes one or more affordances selected from the group consisting of. In some embodiments, the choice of affordance causes an electronic device (eg, 600) to set a setting corresponding to the affordance, or a user interface for setting the setting (eg, an option (eg, slider, affordance, eg)). )) Is displayed.
いくつかの実施形態では、以前にキャプチャされたメディアの表現(例えば、任意の表現)を表示していない間に、電子デバイス(例えば、600)は、1つ以上のカメラを使用して第1のメディアのキャプチャ(例えば、写真又はビデオのキャプチャ)を検出する(936)。いくつかの実施形態では、キャプチャは、カメラアクティブ化アフォーダンス又はメディアキャプチャリングアフォーダンス(例えば、シャッターボタン)上でのタップに応答して生じる。いくつかの実施形態では、第1のメディアのキャプチャを検出したことに応答して、電子デバイス(例えば、600)は、第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現(例えば、6)を表示する(938)。いくつかの実施形態では、1つ以上のカメラの視野の表現に対応するメディアの表現は、以前にキャプチャされたメディアの複数の表現の上に表示される。以前にキャプチャされたメディアの複数の表現の上に1つ以上のカメラの視野の表現に対応するメディアの表現を表示することにより、ユーザが、1つ以上のカメラの視野の表現に対応するメディアの表現を閲覧している間に、以前にキャプチャされたメディアを少なくとも部分的に閲覧及び/又は認識することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアの複数の表現は、互いの上に積み重ねられた複数の表現として表示される。 In some embodiments, the electronic device (eg, 600) uses one or more cameras while not displaying a previously captured representation of the media (eg, any representation). Detect media captures (eg, photo or video captures) (936). In some embodiments, the capture occurs in response to a tap on the camera activation affordance or media capturing affordance (eg, shutter button). In some embodiments, in response to detecting a capture of the first media, the electronic device (eg, 600) has one or more representations of the captured media, including a representation of the first media. (For example, 6) is displayed (938). In some embodiments, the media representation corresponding to the representation of the field of view of one or more cameras is displayed on top of multiple representations of previously captured media. Media that accommodates the representation of the field of view of one or more cameras by displaying the representation of the media that corresponds to the representation of the field of view of one or more cameras on top of multiple representations of previously captured media. Allows you to at least partially view and / or recognize previously captured media while viewing the representation of. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the previously captured representations of the media are displayed as multiple representations stacked on top of each other.
いくつかの実施形態では、表示されると、第1のアスペクト比で表示されるメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、メディアをキャプチャする第3の要求を受信する(940)。いくつかの実施形態では、メディアをキャプチャする第3の要求を受信したことに応答して、電子デバイス(例えば、600)は、第1のアスペクト比でキャプチャされたメディアの表現を表示する(942)。いくつかの実施形態では、電子デバイス(例えば、600)は、第1のアスペクト比を有するキャプチャされたメディアの表現を、第2のアスペクト比を有するキャプチャされたメディアの表現に変更する要求を受信する(944)。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のアスペクト比でキャプチャされたメディアの表現を表示する(946)。いくつかの実施形態では、スペクト比を調整することは、非破壊的である(例えば、写真を変更した後に、キャプチャされたメディアのアスペクト比を変更することができる(増加させる又は減少させる))。 In some embodiments, the electronic device captures the media while the electronic device (eg, 600) is configured to capture the media displayed in the first aspect ratio when displayed. Receive a third request (940). In some embodiments, in response to receiving a third request to capture the media, the electronic device (eg, 600) displays a representation of the captured media in the first aspect ratio (942). ). In some embodiments, the electronic device (eg, 600) receives a request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio. (944). In some embodiments, in response to receiving the request, the electronic device (eg, 600) displays a representation of the media captured in the second aspect ratio (946). In some embodiments, adjusting the spect ratio is non-destructive (eg, after changing the photo, the aspect ratio of the captured media can be changed (increased or decreased)). ..
いくつかの実施形態では、第2のアスペクト比を有するキャプチャされたメディアの表現は、第1のアスペクト比を有するキャプチャされたメディアの表現内に存在しない視覚コンテンツ(例えば、画像コンテンツ;キャプチャの時点で1つ以上のカメラの視野内にあり、第1のアスペクト比での表現に含まれなかった追加の画像コンテンツ)を含む。 In some embodiments, the representation of the captured media with the second aspect ratio is visual content that is not present within the representation of the captured media with the first aspect ratio (eg, image content; at the time of capture). (Additional image content that is within the field of view of one or more cameras and was not included in the representation at the first aspect ratio).
いくつかの実施形態では、第3のカメラモード(例えば、ポートレートモード)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイス(例えば、600)は、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、要求を受信したことに応答して、電子デバイス(例えば、600)は、第3のカメラモードに対応する設定及び複数のカメラ設定アフォーダンス(例えば、626)のアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、照明効果アフォーダンス)に対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャする。第3のカメラモードでメディアをキャプチャするように電子デバイスが構成されている間に、要求を受信したことに応答して、第3のカメラモードに対応する設定及びアフォーダンスに対応する少なくとも1つの設定に基づいて、1つ以上のカメラを使用してメディアをキャプチャすることにより、ユーザに、キャプチャされたメディアに適用されたカメラモードのより容易な制御を提供する。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) is configured while the electronic device (eg, 600) is configured to capture media in a third camera mode (eg, portrait mode). Detect a second request to capture the media. In some embodiments, in response to receiving a request, the electronic device (eg, 600) has an affordance (eg, 626) of settings corresponding to a third camera mode and a plurality of camera settings affordances (eg, 626). , Selectable user interface objects) (eg, lighting effect affordances) to capture media using one or more cameras based on at least one setting. A setting corresponding to the third camera mode and at least one setting corresponding to the affordance in response to receiving a request while the electronic device is configured to capture media in the third camera mode. By capturing media using one or more cameras based on, the user is provided with easier control of the camera mode applied to the captured media. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.
方法900に関して上述された処理(例えば、図9A〜図9C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、1100、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 900 (eg, FIGS. 9A-9C) are also applicable in a similar manner to the methods described above and below. For example,
図10A〜図10Kは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図11A〜図11Cにおける処理を含む、以下で説明される処理を例示するために使用される。 10A-10K show exemplary user interfaces for displaying a camera field of view using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 11A-11C.
図10Aは、ディスプレイの上部からディスプレイの底部まで任意選択的に延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。図10Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビューと同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境とともに水ビュー1040を含む。水ビュー1040は、ユーザがデバイス600をどのように配向しているかの理由から、デバイス600からの角度だけオフセットして表示される水平線1040aを含む。理解を向上させるために、図10A〜図10Kのいくつかは、対応する図の水平線に対するデバイス600の向きに関する詳細を提供するグラフ的な説明図1060を含む。図10Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。
FIG. 10A shows an
図10Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、アニメーション化された画像状態インジケータ602dを含み、これは、(例えば、シャッターアフォーダンス610のアクティブ化を検出したことに応答して、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。
As shown in FIG. 10A, the
図10Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス622を含む。図10Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。
As shown in FIG. 10A, the
図10Aに示すように、コントロール領域606は、カメラモードアフォーダンス620、追加のコントロールアフォーダンス614、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図10Aにおいて、カメラモード620a〜620eが表示され、「Photo」カメラモード620cは、カメラが動作している現在のモードとして太字のテキストで示される。追加のコントロールアフォーダンス614は、ユーザが追加のカメラコントロールにアクセスすることを可能にする。シャッターアフォーダンス610は、アクティブ化されると、デバイス600に、ライブプレビュー630の現在の状態に基づいて、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、電子デバイスにローカルに記憶されるか、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス612は、アクティブ化されると、デバイスに、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。
As shown in FIG. 10A, the
図10Aでは、デバイス600は、タッチ感知面を使用して、ビデオカメラモードアフォーダンス620bに対応する場所でのタップジェスチャ1050aを検出する。タップジェスチャ1050aを検出したことに応答して、デバイス600は、図10Bのユーザインタフェースを表示する。あるいは、図10Aでは、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所での右スワイプジェスチャ1050bを検出する。右スワイプジェスチャ1050bを検出したことに応答して、デバイス600は、図10Bのユーザインタフェースを同様に表示する。図10Aと図10Bとの間の遷移は、図8E〜図8Hに関して上で更に詳細に説明される。
In FIG. 10A, the
図10Bに示すように、タップジェスチャ1050a又は右スワイプジェスチャ1050bを検出したことに応答して、デバイス600は、写真カメラモードからビデオカメラモードに遷移した。デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、(任意選択的に)更新されたライブプレビュー630、及び更新されたカメラモードアフォーダンス620を表示する。
As shown in FIG. 10B, the
インジケータ領域602内の訂正された1組のインジケータは、以前に表示されたアニメーション化された画像状態インジケータ602dを表示することなく(例えば、新たに選択されたモードは、ライブアニメーション化された画像状態インジケータ602dに対応する機能と不適合であるため)、新たに表示されたビデオ品質インジケータ602h(例えば、新たに選択されたモード(ビデオ(記録)モード)は、ビデオ品質インジケータ602hに対応する機能と互換性があるため)及び新たに表示された記録時間インジケータ602iを含む。ビデオ品質インジケータ602hは、ビデオが記録されるビデオ品質(例えば、解像度)のインジケーションを提供する(例えば、シャッターアフォーダンス610がアクティブ化されたとき)。図10Bにおいて、ビデオ品質インジケータ602hは、デバイスが4Kビデオ品質記録モードにあり、その結果、記録がアクティブ化されている場合、ビデオが4Kビデオ品質で記録されることを示す。いくつかの実施形態では、記録時間インジケータ602iは、現在の進行中のバイド(vide)の時間量(例えば、秒、分、及び/又は時間)を示す(indicators)。図10Bにおいて、記録時間インジケータ602iは、現在ビデオが記録されていないため、00:00:00を示す。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ビデオモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。
A set of corrected indicators in the
図10Bでは、デバイスが4Kビデオ品質記録モードにある間に(ビデオ品質インジケータ602hによって示すように)、ライブプレビュー630は、カメラディスプレイ領域604内に表示され続けながら、インジケータ領域602及びコントロール領域606内にもはや表示されないように更新される。いくつかの実施形態では、インジケータ領域602及びコントロール領域606の背景もまた、黒になるように更新される。その結果、ユーザは、インジケータ領域602及びコントロール領域606内のライブプレビュー630をもはや見ることができない。
In FIG. 10B, while the device is in 4K video quality recording mode (as indicated by the video quality indicator 602h), the
図10Bでは、デバイス600は、タッチ感知面を使用して、ビデオ品質インジケータ602hに対応する場所(インジケータ領域602内)でのタップジェスチャ1050cを検出する。
In FIG. 10B, the
図10Cに示すように、タップジェスチャ1050cを検出したことに応答して、デバイス600は、調整可能なビデオ品質コントロール1018を表示し、これは、720pビデオ品質アフォーダンス1018a、HDビデオ品質アフォーダンス1018b、及び4Kビデオ品質アフォーダンス1018cを含む(4Kビデオ品質記録モードが現在アクティブであることを示すために太字化された)。図10Cでは、デバイス600は、タッチ感知面を使用して、HDビデオ品質アフォーダンス1018bに対応する場所でのタップジェスチャ1050dを検出する。
As shown in FIG. 10C, in response to detecting the
図10Dに示すように、タップジェスチャ1050dを検出したことに応答して、デバイス600は、(アクティブにビデオを記録していない間に)デバイスを4Kビデオ品質記録モードからHDビデオ品質記録モードに遷移させる。デバイス600は、デバイスがHDビデオ品質記録モードにあることを示すためにビデオ品質インジケータ602hを更新する(例えば、「HD」と表示するため)。その結果、HDビデオ品質記録モードに遷移すると、デバイス600は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内にライブプレビュー630を表示する(図10Aと同様)。これは、視覚コンテンツ(カメラディスプレイ領域604内に表示される視覚コンテンツを超えた、任意選択的にまた、インジケータ領域602及びコントロール領域606内に表示される視覚コンテンツを超えた)が、ビデオ記録の一部として記憶されることをユーザに示す。
As shown in FIG. 10D, in response to detecting the
図10Dでは、デバイス600がHDビデオ品質記録モードにあり、デバイス600の向き1060が、水平線からオフセットされ続け、その結果、水平線1040aが、デバイス600からの角度だけオフセットして表示され続けている間、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ1050eを検出する。
In FIG. 10D, while the
図10Eに示すように、タップジェスチャ1050eを検出したことに応答して、デバイス600は、HDビデオ品質記録モードでビデオの記録を開始する。図10Eにおいて(図10A〜図10Dのように)、ライブプレビュー630のコンテンツは、カメラの視野内のシーンが変化するにつれて更新し続ける。シャッターアフォーダンス610のビジュアル要素は、デバイスがビデオを記録しており、シャッターアフォーダンス610を再アクティブ化することにより、記録が終了することを示すために更新された。記録時間インジケータ602iは、図10Eにおいて進行しており、5秒のビデオがそれまで記録されていることを示した。ビデオ品質インジケータ602hは、もはや表示されず、それにより、ユーザにライブプレビュー630のより完全なビューを提供することができ、任意選択的に、ビデオ品質記録モードは、ビデオを録画している間に変更することができないためである。記録中、デバイス600の向き1060は、水平線からオフセットされ続け、その結果、水平線1040aは、デバイス600からの角度だけオフセットして表示され続けることに留意されたい。いくつかの実施形態では、デバイス600の向き1060は、水平線1040aがデバイス600からのオフセット度を変化させて記録されるように、ビデオ記録中に変化する。
As shown in FIG. 10E, in response to detecting the
図10Eでは、デバイス600は、タッチ感知面を使用して、シャッターアフォーダンス610に対応する場所でのタップジェスチャ1050gを検出する。タップジェスチャ1050gに応答して、デバイス600は記録を停止する。記録は、後で検索、編集、及び再生するためにデバイス600のメモリに記憶される。記憶された記録は、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含む。更に、記憶された記録はまた、ライブプレビュー630の一部として表示されなかったデバイス600のカメラによってビデオ記録中にキャプチャされた視覚コンテンツも含む。
In FIG. 10E, the
ビデオ記録を記録及び記憶することに続いて、デバイス600は、1つ以上のユーザ入力を受信して、ビデオ記録にアクセスする。図10Fに示すように、デバイス600は、再生、編集、削除、及び他のユーザへの伝送に利用可能なビデオ記録1032のフレームを表示する。ビデオ記録1032の表示されたフレームは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツを含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない。デバイス600は、ビデオ記録1032の表示されたフレーム上に再生アフォーダンス1038を重ねる。再生アフォーダンス1038のアクティブ化(例えば、タップオン)により、再生アフォーダンス1038に、表示を停止させ、ビデオ記録1032を再生させ、これは、記録中にカメラディスプレイ領域604内に表示されたライブプレビュー630の視覚コンテンツの視覚再生を含むが、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツを含まない(また、記録中にライブプレビュー630内に表示されなかった記録された視覚コンテンツも含まない)。図10Fのユーザインタフェースはまた、(ビデオ記録を編集するためのプロセスを開始するための)編集アフォーダンス644a及び(ビデオ記録を自動的に編集するための)自動調整アフォーダンス1036bを含む。
Following recording and storage of the video recording, the
図10Fでは、デバイス600は、タッチ感知面を使用して、編集アフォーダンス644aに対応する場所のタップジェスチャ1050gを検出する。図10Gに示すように、タップジェスチャ1050gを検出したことに応答して、デバイス600は、ビデオ編集オプション1060を表示し、ビデオ編集オプション1060には、(ビデオ記録をクロッピング及び同時に回転させるための)アフォーダンス1060a、(記録の水平線を調整するための)水平線調整アフォーダンス1060b、(ビデオ記録をクロッピングするための)アフォーダンス1060c、及び(ビデオ記録を回転させるための)アフォーダンス1060dが含まれる。いくつかの実施形態では、記録をクロッピングすることは、例えば、図10Fの再生アフォーダンス1038をアクティブ化することによって表示されるライブプレビュー630の部分を更に除外することにより、再生のための視覚コンテンツを(図10Fと比較して)低減するだけである。
In FIG. 10F, the
理解を向上させるために、図10Gはまた、ビデオ記録の一部として記録及び記憶されるが、記録中にカメラディスプレイ領域604の一部として表示されなかった視覚コンテンツの表現を含む。デバイス600の外側に示されるこれらの表現は、デバイス600のユーザインタフェースの一部ではないが、理解の向上のために提供される。例えば、図10Gは、インジケータ領域602及びコントロール領域606内に表示されたライブプレビュー630の視覚コンテンツは、ビデオ記録の一部として記録され、記録中にライブプレビュー630内に表示されなかったいくつかの視覚コンテンツはまた、ビデオ記録1032の一部として記憶され、これらの全ては、デバイス600で、ビデオ記録1032を回転させて水平線のオフセットを補正するためのに利用可能であることを示す。
To improve understanding, FIG. 10G also includes representations of visual content that is recorded and stored as part of the video recording but was not displayed as part of the
図10Gでは、ビデオ編集オプション1060を表示している間に、デバイス600は、タッチ感知面を使用して、水平線調整アフォーダンス1060bに対応する場所でのタップジェスチャ1050iを検出する。図10Hに示すように、タップジェスチャ1050iを検出したことに応答して、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を修正する。完了アフォーダンス1036cのアクティブ化は、ビデオ記録1032に行われた修正を保存する一方で、取消アフォーダンス1036dのアクティブ化は、ビデオ記録1032に行われた修正を復元する。
In FIG. 10G, while displaying the
図10Gに戻ると、デバイス600がタップジェスチャ1050gを検出して、編集モードに入る代わりに、デバイス600は、タッチ感知面を使用して、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ1050hを検出する。図10Hに示すように、タップジェスチャ1050gを検出したことに応答して、デバイス600は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用する(例えば、導入する)ことによって、水平線1040aがオフセットで(例えば、デバイス600のディスプレイの上部(又は底部)に平行である)表示されないように、ビデオ記録1032を自動的に(及び更なるユーザ入力を必要とせずに)修正する。いくつかの実施形態では、自動調整は、ビデオ記録中にカメラディスプレイ領域604内に表示されなかった及び/又はビデオ記録中にライブプレビュー630内に表示されなかった視覚コンテンツを使用することができる、水平線補正(例えば、鮮明化、露光補正)を超える追加の調整を含む。
Returning to FIG. 10G, instead of the
いくつかの実施形態では、図10I〜図10Kに示すように、様々なユーザ入力は、ライブプレビュー630の倍率を変更する。図10Iにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ1050jを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Jに示すように、ライブプレビュー630を、タップジェスチャ1050jの大きさに基づかない所定のズームレベル(例えば、2×)までズームする。図10Jにおいて、デバイス600は、タッチ感知面を使用して、ズームアフォーダンス622に対応する場所でのタップジェスチャ1050kを検出し、それに応じて、ズームアフォーダンス622のビジュアル要素を更新し、図10Kに示すように、ライブプレビュー630を、タップジェスチャ1050kの大きさに基づかない第2の所定のズームレベル(例えば、1×)までズームする。タップジェスチャ1050kを検出する代わりに、デバイス600は、タッチ感知面を使用して、カメラディスプレイ領域604内のライブプレビュー630に対応する場所でのピンチ(又はデピンチ)ジェスチャ1050lを検出し、それに応じて、ライブプレビュー630を、ピンチ(又はデピンチ)ジェスチャ1050lの大きさに基づかないズームレベル(例えば、1.7×)までズームする(及び、任意選択的に、ズームアフォーダンス622のビジュアル要素を更新する)。
In some embodiments, various user inputs change the magnification of the
図11A〜図11Cは、いくつかの実施形態による電子デバイスを使用してカメラ視野を表示するための方法を示すフロー図である。方法1100は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
11A-11C are flow diagrams illustrating a method for displaying a camera field of view using electronic devices according to some embodiments.
後述するように、方法1100は、カメラ視野を表示するための直感的な仕方を提供する。この方法は、カメラ視野を表示する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラ視野にアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As will be described later,
電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求を受信する(1102)。 The electronic device (eg, 600) receives a request to display the camera user interface (1102).
カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って(1104)(例えば、基準は、デバイスが特定のメディア(例えば、4Kビデオ)をキャプチャするように構成されているとき又は特定のモード(例えば、ポートレートモード)で動作するように構成されていると満たされる基準を含むことができる)、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(1106)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第1の部分の表現を含む第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含む(1108)。カメラユーザインタフェースは、1つ以上のカメラの視野(例えば、630)の第2の部分の表現を含む第2の領域(例えば、606)(例えば、カメラコントロール領域)を含む(1110)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分は、第1の部分から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域(例えば、604)の上方及び/又は下方に位置する。カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、カメラユーザインタフェース(カメラユーザインタフェースは、第1の領域及び第2の領域を含む)を表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a request to display the camera user interface, and according to the determination that each criterion is not met (1104) (eg, the criterion is that the device captures certain media (eg, 4K video). Electronic devices (eg, 600), when configured in or can include criteria that are met when configured to operate in a particular mode (eg, portrait mode), via a display device. The camera user interface is displayed (1106). The camera user interface includes a first area (eg, 604) (eg, a camera display area) that includes a representation of a first portion of the field of view (eg, 630) of one or more cameras (1108). The camera user interface includes a second area (eg, 606) (eg, a camera control area) that includes a representation of a second portion of the field of view (eg, 630) of one or more cameras (1110). In some embodiments, the second portion of the field of view of one or more cameras is visually distinguished from the first portion (eg, has a dark appearance) (eg, the field of view of one or more cameras). Has a translucent overlay on the second part of the camera). In some embodiments, the representation of the second portion of the field of view of one or more cameras has a darker appearance as compared to the representation of the first portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is located above and / or below the camera display area (eg, 604) within the camera user interface. In response to receiving a request to display the camera user interface, and according to the determination that the respective criteria are not met, the camera user interface (the camera user interface includes a first region and a second region). By displaying, the electronic device operates when a set of conditions is met without requiring further user input, which enhances the usability of the device and provides a user-device interface. More efficient (by assisting the user in providing proper input when manipulating / interacting with the device, for example, and reducing user error), and in addition, the user makes the device faster and more efficient. By making it available for use, the power usage of the device is reduced and the battery life is improved.
カメラユーザインタフェースが表示されている間に、電子デバイス(例えば、600)は、1つ以上のカメラでメディア(例えば、画像データ(例えば、静止画像、ビデオ))をキャプチャする要求に対応する入力(例えば、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の選択(例えば、アクティブ化されると、第1の領域内に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス))を検出する(1112)。 While the camera user interface is displayed, the electronic device (eg, 600) responds to a request to capture media (eg, image data (eg, still image, video)) with one or more cameras (eg, still image, video). For example, it detects the selection of an image capture affordance (eg, a selectable user interface object) (eg, a shutter affordance that captures an image of the content displayed in the first area when activated) (1112). ..
1つ以上のカメラでメディア(例えば、ビデオ、写真)をキャプチャする要求に対応する入力を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する(例えば、由来する)視覚コンテンツと、1つ以上のカメラの視野の第2の部分に対応する(例えば、由来する)視覚コンテンツと、を含むメディアアイテム(例えば、ビデオ、写真)を、1つ以上のカメラでキャプチャする(1114)。 In response to detecting an input corresponding to a request to capture media (eg, video, photo) with one or more cameras, the electronic device (eg, 600) has a field of view (eg, eg, 600) of one or more cameras. A media item (eg, derived) that includes visual content that corresponds to a first portion of 630) (eg, derived) and visual content that corresponds to a second portion of the field of view of one or more cameras (eg, derived). For example, video, photo) is captured by one or more cameras (1114).
メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、メディアアイテムを表示する要求(例えば、表示する要求)を受信する(1116)。 After capturing the media item, the electronic device (eg, 600) receives a request to display the media item (eg, a request to display) (1116).
いくつかの実施形態では、メディアアイテムをキャプチャした後に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡(例えば、被写体識別)動作を行う(1118)。メディアアイテムをキャプチャした後に、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を(例えば、自動的に、ユーザ入力なしで)行うことは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, after capturing a media item, an electronic device (eg, 600) uses at least a third portion of visual content from a second portion of the field of view of one or more cameras. The object tracking (for example, subject identification) operation is performed (1118). After capturing a media item, use at least a third portion of the visual content from a second portion of the field of view of one or more cameras to perform object tracking behavior (eg, automatically, without user input). What you do reduces the number of inputs required to perform the operation, which enhances the usability of the device and makes the user-device interface (eg, the appropriate input when operating / interacting with the device). By assisting the user in bringing about, and reducing user error), and in addition, by allowing the user to use the device faster and more efficiently, the power usage of the device is reduced. , Battery life is improved.
メディアアイテムを表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現を表示する(1120)。いくつかの実施形態では、キャプチャされた画像データは、1つ以上のカメラの視野(例えば、630)の第1及び第2の部分の両方の表現を含む。いくつかの実施形態では、第2の部分の表現は、キャプチャされた画像データの表示表現から省略されるが、キャプチャされた画像データの表示表現を修正するために使用することができる。例えば、第2の部分は、カメラ安定化、オブジェクト追跡、カメラ視点の変更(例えば、ズーミングなし)、カメラの向きの変更(例えば、ズーミングなし)、及び/又はキャプチャされた画像データの表示表現に組み込むことができる追加の画像データを提供するために使用することができる。 In response to receiving a request to display a media item, an electronic device (eg, 600) represents at least a portion (or all) of visual content that corresponds to a second portion of the field of view of one or more cameras. Is displayed without displaying the first representation of the visual content corresponding to the first portion of the field of view (eg, 630) of one or more cameras (1120). In some embodiments, the captured image data includes representations of both the first and second parts of the field of view (eg, 630) of one or more cameras. In some embodiments, the representation of the second part is omitted from the representation of the captured image data, but can be used to modify the representation of the captured image data. For example, the second part is for camera stabilization, object tracking, camera viewpoint changes (eg, no zooming), camera orientation changes (eg, no zooming), and / or display representations of captured image data. It can be used to provide additional image data that can be incorporated.
いくつかの実施形態では、視覚コンテンツの第1の表現を表示している間に、電子デバイス(例えば、600)は、視覚コンテンツの表現を修正(例えば、編集)する要求に対応する1組の1つ以上の入力を検出する(1122)。いくつかの実施形態では、1組の1つ以上の入力を検出したことに応答して、電子デバイス(例えば、600)は、視覚コンテンツの第2の(例えば、修正された又は編集された)表現を表示する(1124)。いくつかの実施形態では、視覚コンテンツの第2の表現は、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツと、視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく(例えば、由来する)視覚コンテンツと、を含む。1組の1つ以上の入力を検出したことに応答して、視覚コンテンツの第2の表現を表示することにより、ユーザが、1つ以上のカメラの視野の第1の部分の少なくとも一部分からの視覚コンテンツ及び視覚コンテンツの第1の表現に含まれなかった1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づく視覚コンテンツにアクセスすることを可能にし、したがって、ユーザが、視覚コンテンツのより多く及び/又は視覚コンテンツの異なる部分にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、視覚コンテンツの第2の表現は、編集動作に応答して、生成及び表示される。いくつかの実施形態では、第2の表現は、第1の表現に含まれなかった、キャプチャされた視覚コンテンツの少なくとも一部分を含む。 In some embodiments, while displaying the first representation of the visual content, the electronic device (eg, 600) responds to a request to modify (eg, edit) the representation of the visual content. Detect one or more inputs (1122). In some embodiments, in response to detecting one or more inputs in a set, the electronic device (eg, 600) has a second (eg, modified or edited) visual content. Display the representation (1124). In some embodiments, the second representation of the visual content is not included in the first representation of the visual content and the visual content from at least a portion of the first portion of the field of view of one or more cameras1. Includes visual content based on (eg, derived from) at least a portion of the visual content from a second portion of the field of view of one or more cameras. By displaying a second representation of visual content in response to detecting a set of one or more inputs, the user can view from at least a portion of the first portion of the field of view of one or more cameras. Allows the user to access visual content and visual content based on at least a portion of the visual content from a second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Allows access to more and / or different parts of the visual content. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the second representation of the visual content is generated and displayed in response to the editing action. In some embodiments, the second representation includes at least a portion of the captured visual content that was not included in the first representation.
いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の視覚的視点からの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である(例えば、第1の視覚的視点から第2の視覚的視点へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の視覚的視点とは異なる第2の視覚的視点からの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、及びユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation from a first visual perspective (eg, the visual perspective of one or more cameras at the time the media item was captured, the original. Perspective, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is an expression generated from a second visual viewpoint different from the first visual viewpoint (for example, changing the expression from the first visual viewpoint to the second visual viewpoint is the first. Add or replace some of the visual content corresponding to part 2). A second different from the first visual viewpoint, generated based on at least a portion of the visual content from the second part of the field of view of one or more cameras that was not included in the first representation of the visual content. By providing a second representation of the visual content, which is a representation of the visual content of, it provides the user with access to the additional visual content and allows the user to view the additional visual content. do. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、視覚コンテンツの第1の表現は、第1の向きでの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きでの表現である(例えば、第1の向きから第2の向き(例えば、水平線、縦、横)へ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1の向きとは異なる第2の向きでの表現である視覚コンテンツの第2の表現を提供することにより、ユーザに、追加の視覚コンテンツへのアクセスを提供し、及びユーザが追加の視覚コンテンツを閲覧することを可能にする。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the first representation of the visual content is a representation in the first orientation (eg, the visual perspective of one or more cameras at the time the media item was captured, the original perspective. , Uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is the representation in a second orientation different from the first orientation (eg, changing the representation from the first orientation to the second orientation (eg, horizontal line, vertical, horizontal). Add or replace some of the visual content that corresponds to the second part). A second orientation different from the first orientation generated based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. By providing a second representation of the visual content, which is the representation in, the user is provided with access to the additional visual content and the user is allowed to view the additional visual content. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、第1の表現は、第1のズームレベルで表示される。いくつかの実施形態では、視覚コンテンツの第1の表現は、第1のズームレベルでの表現である(例えば、メディアアイテムがキャプチャされた時点での1つ以上のカメラの視覚的視点、元の視点、未修正の視点)。いくつかの実施形態では、視覚コンテンツの第2の表現は、視覚コンテンツの第1の表現に含まれなかった、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも一部分に基づいて生成された、第1のズームレベルとは異なる第2のズームレベルでの表現である(例えば、第1のズームレベルから第2のズームレベルへ表現を変更することは、第2の部分に対応する視覚コンテンツのいくらかを追加又は、代替的に、除去する)。いくつかの実施形態では、デバイスがポートレートキャプチャモードで動作している間に、第1のズームレベルを第2のズームレベルに変更する要求は、デバイスがポートレートモードで動作するように構成されている間に表示されるズームオプションアフォーダンスの選択に対応する。 In some embodiments, the first representation is displayed at the first zoom level. In some embodiments, the first representation of the visual content is the representation at the first zoom level (eg, the visual perspective of one or more cameras at the time the media item was captured, the original. Perspective, uncorrected perspective). In some embodiments, the second representation of the visual content is based on at least a portion of the visual content from the second portion of the field of view of one or more cameras that was not included in the first representation of the visual content. Is an expression at a second zoom level different from the first zoom level (for example, changing the expression from the first zoom level to the second zoom level is a second part. Add or replace some of the corresponding visual content). In some embodiments, the request to change the first zoom level to the second zoom level while the device is operating in portrait mode is configured to operate the device in portrait mode. Corresponds to the selection of zoom options affordances that are displayed while you are.
いくつかの実施形態では、視覚コンテンツの第1の表現は、1つ以上のカメラの視野の第2の部分からの視覚コンテンツの少なくとも第2の部分を使用して(例えば、カメラのキャプチャを安定化させるために第2の部分に対応する視覚コンテンツからのピクセルを使用して)、デジタル画像安定化動作に少なくとも部分的に基づいて生成される。 In some embodiments, the first representation of the visual content uses at least a second portion of the visual content from a second portion of the field of view of one or more cameras (eg, stabilizes the camera's capture). (Using pixels from the visual content corresponding to the second part) to be generated, at least partially based on the digital image stabilization operation.
いくつかの実施形態では、メディアアイテムを表示する要求は、メディアアイテムを表示する第1の要求である(1126)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分(又は全て)の表現を表示することなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現を表示した後に、電子デバイス(例えば、600)は、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求(例えば、第2の要求を第2の受信することは、メディアアイテムを表示する要求に対応する1つ以上の入力を検出することを含む))を受信する(1128)。いくつかの実施形態では、メディアアイテムを表示する第2の要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)の第1の部分に対応する視覚コンテンツの第1の表現及び1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの表現を表示する(1130)。いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)の第2の部分の表現は、表示されたメディア内の1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、表示されたメディアは、表現を含む第1の領域と、1つ以上のカメラの視野(例えば、630)の第2の部分に対応する視覚コンテンツの表現を含む第2のメディアとを有する。 In some embodiments, the request to display the media item is the first request to display the media item (1126). In some embodiments, the first portion of the field of view of one or more cameras does not display a representation of at least a portion (or all) of the visual content that corresponds to the second portion of the field of view of the one or more cameras. After displaying the first representation of the visual content corresponding to the portion, the electronic device (eg, 600) has a second request to display the media item (eg, a request to edit the media item (eg, a second request). (2) Receiving (including detecting one or more inputs corresponding to a request to display a media item)) (1128). In some embodiments, the electronic device (eg, 600) is of one or more cameras in response to receiving a second request to display the media item (eg, a request to edit the media item). A first representation of the visual content corresponding to the first portion of the field of view (eg, 630) and a representation of the visual content corresponding to the second portion of the field of view of one or more cameras are displayed (1130). In some embodiments, the representation of the second portion of the field of view of one or more cameras (eg, 630) is compared to the representation of the first portion of the field of view of one or more cameras in the displayed media. And has a dark appearance. In some embodiments, the displayed media comprises a first region containing the representation and a second representation of the visual content corresponding to a second portion of the field of view (eg, 630) of one or more cameras. With media.
いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、電子デバイス(例えば、600)は、表示デバイスを介して、第2のカメラユーザインタフェースを表示し、第2のカメラユーザインタフェースが、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む(1132)。カメラユーザインタフェースを表示する要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、1つ以上のカメラの視野の第2の部分の表現を含むことなく、1つ以上のカメラの視野の第1の部分の表現を含む第2のカメラユーザインタフェースを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、メディアをキャプチャする要求に対応する入力を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2の部分に対応するメディアをキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツを含むメディアアイテムをキャプチャする。 In some embodiments, the electronic device (eg, 600) is via the display device in response to receiving a request to display the camera user interface and according to the determination that the respective criteria are met. , Displaying a second camera user interface, the second camera user interface does not include a representation of a second portion of the field of view of one or more cameras, but a first portion of the field of view of one or more cameras. (1132). One without including a representation of a second part of the field of view of one or more cameras in response to receiving a request to display the camera user interface and according to the determination that each criterion is met. By displaying a second camera user interface that includes a representation of the first portion of the camera's field of view, the electronic device operates when a set of conditions is met without the need for further user input. This enhances the usability of the device and assists the user in providing the user-device interface (eg, providing proper input when manipulating / interacting with the device) and reducing user error. By making it more efficient (by doing so) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, the electronic device (eg, 600) corresponds to a second portion of the field of view of one or more cameras in response to detecting an input corresponding to the request to capture the media. Captures media items that contain visual content that corresponds to the first portion of the field of view of one or more cameras without capturing.
いくつかの実施形態では、電子デバイス(例えば、600)は、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信する(1134)。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示する(例えば、インジケーションは、アラートを含み、メディアアイテムは、使用可能な追加のコンテンツを含み、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合に、インジケーションが表示される)。以前にキャプチャされたメディアアイテムを表示する要求を受信したことに応答して、それぞれの基準が満たされなかったときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示することによって、電子デバイスは、ユーザに(例えば、メディアアイテムを編集するための)追加の制御オプションを提供し、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、以前にキャプチャされたメディアアイテムを表示する要求(例えば、メディアアイテムを編集する要求)を受信したことに応答して(1136)、それぞれの基準が満たされたときに以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、電子デバイス(例えば、600)は、追加のコンテンツのインジケーションを表示するのをやめる(例えば、追加のコンテンツを含まないメディアアイテムがキャプチャされた場合、メディアアイテムは、表示されない)(1140)。 In some embodiments, the electronic device (eg, 600) receives a request to display a previously captured media item (eg, a request to edit a media item) (1134). In some embodiments, in response to receiving a request to display a previously captured media item (eg, a request to edit a media item) (1136), previously when the respective criteria are met. According to the determination that the media item captured in is captured, the electronic device (eg, 600) displays an indication of additional content (eg, the indication contains an alert and the media item is available). The indication is displayed when a media item with and without additional content is captured). In response to receiving a request to view previously captured media items, an interface to additional content is determined according to the determination that previously captured media items were captured when their respective criteria were not met. By displaying the display, the electronic device provides the user with additional control options (eg, for editing media items), which enhances the usability of the device and provides a user-device interface (eg, for example). (By assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), in addition, the user makes the device faster and more efficient. By making it available, the power usage of the device is reduced and the battery life is improved. In some embodiments, in response to receiving a request to display a previously captured media item (eg, a request to edit a media item) (1136), previously when the respective criteria are met. According to the determination that the media item captured in is captured, the electronic device (eg, 600) stops displaying the indication of additional content (eg, media item that does not contain additional content was captured). If the media item is not displayed) (1140).
いくつかの実施形態では、それぞれの基準は、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように電子デバイス(例えば、600)が構成されていると満たされる基準を含む。 In some embodiments, each criterion includes a criterion that is met when the electronic device (eg, 600) is configured to capture media items at a resolution of 4000 horizontal pixels or higher.
いくつかの実施形態では、それぞれの基準は、所定のズームレベルにてポートレートモードで動作するように電子デバイス(例えば、600)が構成されていると満たされる基準を含む(例えば、ポートレートモードでは、ズームレベル(例えば、0.5×、1×、2×ズーム)の間にある間は、追加のコンテンツを含まない)。 In some embodiments, each criterion includes a criterion that is met when the electronic device (eg, 600) is configured to operate in portrait mode at a given zoom level (eg, portrait mode). Now, while between the zoom levels (eg, 0.5x, 1x, 2x zoom), no additional content is included).
いくつかの実施形態では、それぞれの基準は、1つ以上のカメラのうちの少なくとも1つのカメラ(例えば、周辺カメラ)が所定の期間(例えば、5秒)にわたって焦点(例えば、視野内の1つ以上のオブジェクト上)を維持できないと満たされる基準を含む。 In some embodiments, each criterion is that at least one camera (eg, a peripheral camera) of one or more cameras is in focus (eg, one in the field of view) over a predetermined period of time (eg, 5 seconds). Includes criteria that are met if (on the above objects) cannot be maintained.
いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する入力は、1つ以上のカメラでメディアをキャプチャする要求に対応する第1の入力である。いくつかの実施形態では、カメラユーザインタフェースが表示されている間に、電子デバイスは、1つ以上のでメディアをキャプチャする要求に対応する第2の入力を検出する。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応答して、及び追加のコンテンツ設定(例えば、図37の3702a、3702a2、3702a3)に基づいて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現(例えば、領域604内に表示された)をキャプチャし、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現(例えば、領域602及び/又は606内に表示された)をキャプチャする。いくつかの実施形態では、電子デバイスは、追加のコンテンツキャプチャ設定アフォーダンスを含む設定ユーザインタフェースを表示し、これは、選択されると、電子デバイスに、メディアをキャプチャする要求に応答して、電子デバイスが自動的に(追加のユーザ入力なしで)第2のコンテンツをキャプチャする状態に又は状態から変更させる。いくつかの実施形態では、追加のコンテンツキャプチャ設定は、ユーザが構成可能である。いくつかの実施形態では、1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出したことに応答して、及び追加のコンテンツ設定に基づいて、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツをキャプチャするように電子デバイスが構成されていないという判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分に対応する視覚コンテンツの少なくとも一部分の表現をキャプチャすることなく、1つ以上のカメラの視野の第1の部分に対応する視覚コンテンツの第1の表現をキャプチャする。いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第2の部分をキャプチャするのをやめる。
In some embodiments, the input corresponding to the request to capture media with one or more cameras is the first input corresponding to the request to capture media with one or more cameras. In some embodiments, while the camera user interface is displayed, the electronic device detects a second input corresponding to one or more requests to capture the media. In some embodiments, in response to detecting a second input corresponding to a request to capture media with one or more cameras, and additional content settings (eg, 3702a, 3702a2, 3702a3 in FIG. 37). ) Based on the determination that the electronic device is configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras. A first representation of the visual content corresponding to the first portion (eg, displayed within area 604) is captured and at least a portion of the visual content corresponding to the second portion of the field of view of one or more cameras. Capture the representation (eg, displayed within
方法1100に関して上述された処理(例えば、図11A〜図11C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1300、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 1100 (eg, FIGS. 11A-11C) are also applicable in a similar manner to the methods described above and below. For example,
図12A〜図12Iは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図13A〜図13Bにおける処理を含む、以下で説明される処理を例示するために使用される。 12A-12I show exemplary user interfaces for accessing media items using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 13A-13B.
図12Aに示すように、デバイス600は、カメラ起動アイコン1202を含むホームユーザインタフェーススクリーン1200を表示する。ホームユーザインタフェース1200を表示している間に、デバイス600は、カメラ起動アイコン1202上の入力1295aを検出する。
As shown in FIG. 12A, the
入力1295aを検出したことに応答して、デバイス600は、図12Bに見られるように、インジケータ領域602、カメラディスプレイ領域604、及びコントロール領域606を含むユーザインタフェースを表示する。インジケータ領域602は、フラッシュインジケータ602aと、アニメーション化された画像をキャプチャする(例えば、メディアをキャプチャする要求に応答して、既定の数の画像をキャプチャする)ようにデバイス600が現在構成されていることを示すアニメーション化された画像状態インジケータ602dと、を含む。カメラディスプレイ領域604は、ライブプレビュー630を含む。ライブプレビュー630は、デバイス600の1つ以上のカメラ(例えば、背面カメラ)の視野の表現である。
In response to detecting input 1295a, the
コントロール領域606は、メディアコレクション624コレクション624を含む。デバイス600は、メディアコレクション624コレクション624を、デバイス縁部1214に積み重ねてかつ近接させて表示する。メディアコレクション624コレクション624は、メディアコレクション1212aの第1の部分(例えば、メディアコレクション624コレクション624の左半分)と、メディアコレクション1212bの第2の部分(例えば、メディアコレクション624コレクション624の積み重ねにおける上部表現)と、を含む。いくつかの実施形態では、カメラユーザインタフェースが起動されると、デバイス600は、自動的に、ユーザ入力なしで、デバイス縁部1214からデバイス600の中心に向かってスライドするメディアコレクション624コレクション624のアニメーションを表示する。いくつかの実施形態では、アニメーションが開始されると、メディアコレクション1212bの第1の部分は、最初に表示されない(例えば、上部表示のみが最初に視認可能である)。更には、カメラコントロール領域612は、シャッターアフォーダンス610を含む。図12Bにおいて、デバイス600は、ライブプレビュー630が横断歩道を歩いている女性を示している間に、シャッターアフォーダンス610上のタップ入力1295bを検出する。
The
図12C〜図12Fは、入力1295bに応答して、アニメーション化されたメディアのキャプチャを示す。
12C-12F show a capture of animated media in response to
図12Cにおいて、アニメーション化されたメディアのキャプチャ(例えば、シーケンスでの既定の複数の画像のキャプチャ)中の第1の時点に対応して、ライブプレビュー630は、横断歩道を更に進んでいる女性と、横断歩道に進入している男性と、を示す。コントロール領域606は、メディアがキャプチャされている間に示されないメディアコレクション624コレクション624を含まない。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャする間に表示される。いくつかの実施形態では、メディアコレクション624は、メディアをキャプチャする間に単一の表現(例えば、積み重ねの上部表現)のみで表示される。
In FIG. 12C, the
図12Dにおいて、アニメーション化されたメディアのキャプチャ中の第2の時点に対応して、ライブプレビュー630は、横断歩道から出始めている女性と、一方、横断歩道を更に進んでいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第1の画像(例えば、入力1295bが検出された0.5秒後にキャプチャされた画像)の表現を含む。
In FIG. 12D, the
図12Eにおいて、アニメーション化されたメディアのキャプチャ中の第3の時点に対応して、ライブプレビュー630は、横断歩道から部分的に出ている女性と、横断歩道の中央にいる男性と、を示す。メディアコレクション624が示されており、アニメーション化されたメディアの進行中のキャプチャ中にキャプチャされた複数の画像の第2の画像(例えば、入力1295bが検出された1秒後にキャプチャされた画像)の表現を含む。いくつかの実施形態では、第2の画像は、図12Dに示される表現の上に重ねられる(例えば、スタックとして)。
In FIG. 12E, the
図12Fにおいて、デバイス600は、アニメーション化されたメディアのキャプチャを完了した。メディアコレクション624は、スタックの上部に、他の以前にキャプチャされたメディア(例えば、アニメーション化されたメディアキャプチャ動作中にキャプチャされたもの以外のメディア)上に重ねられたキャプチャされたアニメーション化されたメディアの単一の表現(例えば、既定の複数のキャプチャされた画像を表す単一の表現)を現在含む。
In FIG. 12F,
図12Gに示すように、表現メディアコレクション624が所定の期間にわたって表示されたことを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212aの第1の部分の表示を停止する。図12Gに示すように、デバイス600は、メディアコレクション1212bの第2の部分の表示を維持する一方で、メディアコレクション1212aの第1の部分の表示を停止する。いくつかの実施形態では、メディアコレクション1212aの第1の部分の表示を停止することとは、メディアコレクション624をデバイス縁部1214に向かってスライドするアニメーションを表示することを含む。メディアコレクション1212aの第1の部分の表示及びメディアコレクション1212bの第2の部分の維持を停止した後で、追加のコントロールアフォーダンス614は、メディアコレクション624によって以前に占有された場所に表示される。更には、メディアコレクション1212aの第1の部分の表示を停止した後で、デバイス600は、デバイス縁部1214から離れて動くスワイプ入力1295cを検出する。
As shown in FIG. 12G, in response to detecting that the
図12Hに示すように、スワイプ入力1295cを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212bの第1の部分を再表示する。メディアコレクション1212bの第1の部分を再表示した後、デバイス600は、メディアコレクション624が追加のコントロールアフォーダンス614が占有された場所を覆うため、追加のコントロールアフォーダンス614の表示を停止する。メディアコレクション624を表示している間に、デバイス600は、メディアコレクション624上のタップ入力1295dを検出する。
As shown in FIG. 12H, in response to detecting the
図12Iに示すように、タップ入力1295dを検出したことに応答して、デバイス600は、拡大表現1226(例えば、図12B〜図12Fでキャプチャされたアニメーション化されたメディアの表現)を表示する。表現1226は、図12Hのメディアコレクション624のスタックの上部に表示された小表現に対応する。いくつかの実施形態では、閾値強度よりも高い特性強度又は閾値持続時間より長い持続時間を有する表現1226上の接触に応答して、デバイス600は、表現1226に対応するアニメーション化されたメディアを再生する。拡大表現1226を表示している間に、デバイス600は、戻るアフォーダンス1236上の入力1295eを検出する。
As shown in FIG. 12I, in response to detecting the
図12Jに示すように、入力1295eを検出したことに応答して、デバイス600は、メディアの拡大表現1226から出て、デバイス縁部1214付近にメディアコレクション624を表示する。メディアコレクション624を表示している間に、デバイス600は、デバイス縁部1214に向かって動くスワイプジェスチャである入力1295fを検出する。
As shown in FIG. 12J, in response to detecting the
図12Kに示すように、スワイプ入力1295fを検出したことに応答して、デバイス600は、メディアコレクション624のメディアコレクション1212aの第1の部分の表示を停止し、追加のコントロールアフォーダンス616を再表示する。
As shown in FIG. 12K, in response to detecting the
図13A〜図13Bは、いくつかの実施形態による電子デバイスを使用してメディアアイテムにアクセスするための方法を示すフロー図である。方法1300は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
13A-13B are flow diagrams illustrating methods for accessing media items using electronic devices according to some embodiments.
後述するように、方法1300は、メディアアイテムにアクセスするための直感的な仕方を提供する。この方法は、メディアアイテムにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1302)。 The electronic device (eg, 600) is to display the camera user interface via a display device, the camera display area, wherein the camera user interface includes a representation of the field of view of one or more cameras (eg, 630). Display camera user interfaces (eg, display simultaneously), including (eg, 604) (1302).
カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求(例えば、物理カメラシャッターボタン又は仮想カメラシャッターボタンなどのキャプチャアフォーダンスのアクティブ化)を検出する(1304)。 While displaying the camera user interface, an electronic device (eg, 600) requests to capture media corresponding to the field of view (eg, 630) of one or more cameras (eg, physical camera shutter button or virtual camera). Activation of capture affordance such as shutter button) is detected (1304).
1つ以上のカメラの視野(例えば、630)に対応するメディアをキャプチャする要求を検出したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野に対応するメディアをキャプチャし、キャプチャされたメディアの表現(例えば、1224)を表示する(1306)。 In response to detecting a request to capture media corresponding to one or more camera fields of view (eg, 630), the electronic device (eg, 600) picks up media corresponding to one or more camera fields of view. Capture and display a representation of the captured media (eg, 1224) (1306).
キャプチャされたメディアの表現を表示している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出する(1308)。いくつかの実施形態では、イベントに応答して、所定の時間が開始される(例えば、画像をキャプチャする、カメラアプリケーションを起動するなど)。いくつかの実施形態では、所定の時間の長さは、検出されたイベントに基づいて判定される。例えば、イベントが第1のタイプ(例えば、静止画像)の画像データをキャプチャしている場合、所定の時間は、一定時間(例えば、0.5秒)であり、イベントが第2のタイプ(例えば、ビデオ)の画像データをキャプチャしている場合、所定の時間量は、キャプチャされた画像データの量(例えば、キャプチャされたビデオの長さ)に対応する。 While displaying the representation of the captured media, the electronic device (eg, 600) detects that the representation of the captured media has been displayed for a predetermined period of time (1308). In some embodiments, a predetermined time is initiated in response to an event (eg, capturing an image, launching a camera application, etc.). In some embodiments, the length of time is determined based on the detected event. For example, if the event is capturing image data of a first type (eg, a still image), the predetermined time is a fixed time (eg, 0.5 seconds) and the event is of a second type (eg, 0.5 seconds). , Video), the predetermined amount of time corresponds to the amount of captured image data (eg, the length of the captured video).
いくつかの実施形態では、キャプチャされたメディアの表現が表示されている間に、電子デバイス(例えば、600)は、キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力(例えば、キャプチャされたメディアの表現上での選択(例えば、タップ)に対応するユーザ入力)を検出する(1310)。いくつかの実施形態では、キャプチャされたメディアの表現の選択に対応するユーザ入力を検出したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、(例えば、メディアの表現を拡大する)キャプチャされたメディアの拡大表現を表示する(1312)。 In some embodiments, while the representation of the captured media is displayed, the electronic device (eg, 600) responds to a request to display a magnified representation of the captured media (eg, capture). The user input corresponding to the selection (for example, tap) on the representation of the media is detected (1310). In some embodiments, the electronic device (eg, 600) responds by detecting the user input corresponding to the selection of the captured media representation through the display device (eg, the media representation). (Enlarge) Display an enlarged representation of the captured media (1312).
いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第5の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止した後に、電子デバイス(例えば、600)は、第5の場所にて複数のカメラ設定を制御するアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止した後、複数のカメラ設定を制御するアフォーダンスを表示することにより、ユーザに、容易にアクセス可能及び使用可能な制御オプションを提供する。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ−デバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。 In some embodiments, the captured media representation is displayed in a fifth location on the display. In some embodiments, the electronic device (eg, 600) is placed in a fifth location after stopping the display of at least a portion of the captured media representation while maintaining the display of the camera user interface. Displays affordances (eg, selectable user interface objects) that control multiple camera settings. Easily accessible to the user by displaying affordances that control multiple camera settings after stopping the display of at least a portion of the captured media representation while maintaining the display of the camera user interface. And provide control options available. By providing additional control options without cluttering the user interface with the additionally displayed controls, the usability of the device is improved and the user-device interface is suitable (eg, when manipulating / interacting with the device). Powering the device by assisting the user in providing input and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life.
いくつかの実施形態では、1つ以上のカメラの視野(例えば、630)に対応するメディア(例えば、ビデオ、動画(例えば、ライブフォト))をキャプチャすることは、画像のシーケンスをキャプチャすることを含む。1つ以上のカメラの視野に対応するメディアをキャプチャするときに画像のシーケンスを(例えば、自動的に、追加のユーザ入力なしで)キャプチャすることによって、電子デバイスは、改善されたフィードバックを提供し、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現を表示することは、少なくとも2つの画像(例えば、ビデオ、写真)を含む画像のキャプチャされたシーケンスの少なくとも一部分を再生することを含む。いくつかの実施形態では、キャプチャされたビデオは、所定の期間にわたってループされる。 In some embodiments, capturing media (eg, video, video (eg, live photo)) that corresponds to the field of view (eg, 630) of one or more cameras means capturing a sequence of images. include. By capturing a sequence of images (eg, automatically, without additional user input) when capturing media that corresponds to the field of view of one or more cameras, the electronic device provides improved feedback. This enhances the usability of the device and assists the user in providing the user-device interface (eg, providing proper input when manipulating / interacting with the device) and reducing user error. ) By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and the battery life is improved. In some embodiments, displaying a representation of the captured media comprises reproducing at least a portion of the captured sequence of images, including at least two images (eg, video, photo). In some embodiments, the captured video is looped over a predetermined period of time.
いくつかの実施形態では、所定の時間は、キャプチャされたビデオシーケンスの持続時間に基づく(例えば、等しい)。いくつかの実施形態では、キャプチャされたメディアの表現は、ビデオメディアの再生が完了した後に表示を停止される。 In some embodiments, the predetermined time is based on (eg, equal) the duration of the captured video sequence. In some embodiments, the representation of the captured media is stopped after the playback of the video media is complete.
キャプチャされたメディアの表現(例えば、1224)が所定の期間にわたって表示されたことを検出したことに応答して、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止する(1314)。キャプチャされたメディアの表現が所定の期間にわたって表示されたことを検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも一部分の表示を停止することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、キャプチャされたメディアの表現の表示を停止することは、カメラコントロール領域外で動くキャプチャされたメディアの表現のアニメーションを表示することを含む(例えば、所定の時間量が満了すると、画像プレビューはアニメーション内のスクリーン外へ(例えば、左へ)スライドする)。 In response to detecting that the captured media representation (eg, 1224) has been displayed for a predetermined period of time, the electronic device (eg, 600) maintains the display of the camera user interface. , Stop displaying at least a portion of the captured media representation (1314). Stop displaying at least a portion of the captured media representation while maintaining the display of the camera user interface in response to detecting that the captured media representation has been displayed for a given period of time. Doing so reduces the number of inputs required to perform the operation, which enhances the usability of the device and makes the user-device interface (eg, the appropriate input when operating / interacting with the device). By assisting the user in bringing about and reducing user error), and in addition, by allowing the user to use the device faster and more efficiently, the power usage of the device is reduced. , Battery life is improved. In some embodiments, stopping the display of the captured media representation comprises displaying an animation of the captured media representation moving outside the camera control area (eg, a predetermined amount of time has expired). The image preview then slides off the screen in the animation (for example, to the left).
いくつかの実施形態では、キャプチャされたメディアの表現の部分は、キャプチャメディアの表現の第1の部分である。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することは、キャプチャされたメディアの表現の少なくとも第2の部分の表示を維持することを更に含む(例えば、表示の縁部は、ユーザインタフェースの縁部(例えば、表示デバイス(又は表示デバイス上のスクリーン)の縁部)の近くに張り出す)。 In some embodiments, the representation part of the captured media is the first part of the representation of the captured media. In some embodiments, stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface is at least the second of the captured media representation. Further includes maintaining the display of the portion of (eg, the edges of the display overhang near the edges of the user interface (eg, the edges of the display device (or screen on the display device)).
いくつかの実施形態では、表現の第1の部分の表示を停止する前に、キャプチャされたメディアの表現が、ディスプレイ上の第1の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止することは、ディスプレイ上の第1の場所から表示デバイスの縁部に対応するディスプレイ上の第2の場所に向かって、キャプチャされたメディアの表現を動かす(例えば、スライドする)アニメーションを表示することを更に含む(例えば、アニメーションは、カメラユーザインタフェースの縁部に向かってスライドする表現を示す)。カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの表現の少なくとも第1の部分の表示を停止すると、ディスプレイ上の第1の場所から表示デバイスの縁部に対応するディスプレイ上の第2の場所に向かって、キャプチャされたメディアの表現を動かすアニメーションを表示することによって、ユーザに、表現の少なくとも第1の部分が表示から除去されているという視覚的フィードバックを提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, the captured media representation is displayed in a first location on the display before stopping the display of the first portion of the representation. In some embodiments, stopping the display of at least the first portion of the captured media representation while maintaining the display of the camera user interface is a display device from a first location on the display. It further comprises displaying an animation that moves (eg, slides) the representation of the captured media towards a second location on the display that corresponds to the edge of the camera (eg, the animation is the edge of the camera user interface). Indicates an expression that slides toward the part). If you stop displaying at least the first part of the captured media representation while maintaining the display of the camera user interface, you can from the first location on the display on the display corresponding to the edge of the display device. By displaying an animation that moves the representation of the captured media towards a second location, it provides the user with visual feedback that at least the first portion of the representation has been removed from the display. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、キャプチャされたメディアの表現は、ディスプレイ上の第3の場所に表示される。いくつかの実施形態では、キャプチャされたメディアの第2の表現が表示されている間に、電子デバイス(例えば、600)は、カメラユーザインタフェースの表示を維持している間に、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力(例えば、表示デバイスの縁部に向かうスワイプジェスチャ)を検出する。いくつかの実施形態では、第2の表現の少なくとも一部分の表示を停止する要求を検出したことに応答して、カメラユーザインタフェースの表示を維持している間に、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現の少なくとも一部分の表示を停止する。 In some embodiments, the captured media representation is displayed in a third location on the display. In some embodiments, the captured media is displayed while the electronic device (eg, 600) maintains the display of the camera user interface while the second representation of the captured media is displayed. Detects user input (eg, a swipe gesture towards the edge of the display device) corresponding to a request to stop displaying at least a portion of the second representation of. In some embodiments, the electronic device (eg, 600) maintains the display of the camera user interface in response to detecting a request to stop displaying at least a portion of the second representation. , Stop displaying at least a portion of the second representation of the captured media.
いくつかの実施形態では、表現の第1の部分の表示を停止した後に、電子デバイス(例えば、600)は、表示デバイスの縁部に対応するディスプレイ上の第4の場所から、ディスプレイ上の第4の場所とは異なる第5の場所への第2の接触の移動に対応するユーザ入力(例えば、ディスプレイの縁部への/からのスワイプ)(例えば、表現(又はプレビュー)を表示(又は再表示)する要求に対応するユーザ入力)を受信する(1316)。いくつかの実施形態では、表示デバイスの縁部に対応する表示デバイス上の第4の場所から、表示デバイス上の第5の場所への接触の移動に対応するユーザ入力を受信したことに応答して、電子デバイス(例えば、600)は、表現の第1の部分を再表示する(1318)。表示デバイスの縁部に対応するディスプレイ上の第4の場所から、ディスプレイ上の第5の場所への接触の移動に対応するユーザ入力を受信することに応答して、表現の第1の部分を再表示することにより、ユーザが、電子デバイスに迅速かつ容易に表現の第1の部分を再表示させることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。
In some embodiments, after stopping the display of the first portion of the representation, the electronic device (eg, 600) is placed on the display from a fourth location on the display corresponding to the edge of the display device. Display (or re-view) user input (eg, swipe from / to the edge of the display) (eg, representation (or preview)) corresponding to the movement of the second contact to a fifth location that is different from
いくつかの実施形態では、カメラユーザインタフェースが表示されていない間(例えば、カメラユーザインタフェースを破棄した後)に、電子デバイス(例えば、600)は、カメラユーザインタフェースを再表示する要求を受信する(1320)。いくつかの実施形態では、カメラユーザインタフェースを再表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、キャプチャされたメディアの第2の表現を含む(例えば、自動的に含む)、カメラユーザインタフェースの第2のインスタンスを表示する(例えば、自動的に表示する)(1322)。いくつかの実施形態では、キャプチャされたメディアの第2の表現は、ディスプレイの縁部からUI上に平行移動する表現のアニメーション化されたシーケンスにより、表示される。 In some embodiments, the electronic device (eg, 600) receives a request to redisplay the camera user interface while the camera user interface is not visible (eg, after destroying the camera user interface) (eg, after destroying the camera user interface). 1320). In some embodiments, in response to receiving a request to redisplay the camera user interface, the electronic device (eg, 600) comprises a second representation of the captured media (eg, automatically). (Including), display a second instance of the camera user interface (eg, display automatically) (1322). In some embodiments, the second representation of the captured media is displayed by an animated sequence of translations that translate from the edges of the display onto the UI.
方法1300に関して上述された処理(例えば、図13A〜図13B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1500、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 1300 (eg, FIGS. 13A-13B) are also applicable to the methods described above and below in a similar manner. For example,
図14A〜図14Uは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図15A〜図15Cにおける処理を含む、以下で説明される処理を例示するために使用される。 14A-14U show exemplary user interfaces for modifying media items using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 15A-15C.
図14A〜図14Dは、異なるアスペクト比を使用してメディアをキャプチャするようにデバイス600が構成される処理を示す。
14A-14D show the process by which the
図14Aに示すように、デバイス600は、1つ以上のカメラの視野(field-of-review)の表現であるライブプレビュー630を表示する。ライブプレビュー630は、視覚部分1404及び暗色部分1406を含む。視覚境界部608は、視覚部分1404と暗色部分1406との間にあり、デバイス600上に視覚的に表示される。視覚境界部608は、視覚境界部608の角部に既定の入力場所1410A〜1410Dを含む。視覚部分1404は、メディアをキャプチャする要求に応答して、ユーザにキャプチャされ、表示されるメディアの視覚インジケーションである。換言すれば、視覚部分1404は、メディアがキャプチャされ、表現されたときに、典型的に表示されるメディアの表現の部分の視覚インジケーションである。暗色部分1406は、メディアがキャプチャされ、表現された後に、典型的に表示されないメディアの部分の視覚インジケーションである。視覚部分1404は、暗色部分1406と視覚的に区別される。具体的には、視覚部分1404は、陰影が付いていないが、暗色部分1406は、陰影が付いている。更には、デバイス600は、ズームアフォーダンス622を表示する。
As shown in FIG. 14A, the
図14A〜図14Dは、全体入力1495Aの様々な部分を示す。全体入力1495Aは、視覚部分1404に対応するアスペクト比を、4×3のアスペクト比1400(例えば、視覚部分1404に対応する4:3アスペクト比)から新しいアスペクト比へ変更する。全体入力1495Aは、入力部分1495A1及び入力部分1495A2を含む。入力の静止構成要素に対応する入力部分1495A1は、全体入力1495Aの第1の部分であり、入力の移動構成要素に対応する入力部分1495A2は、全体入力1495Aの第2の部分である。図14Aに示すように、4×3のアスペクト比1400でメディアをキャプチャするようにデバイス600が構成されている間に、デバイスは、視覚境界部608の右上の角に対応する場所1410Aでの入力部分1495A1を検出する。
14A-14D show different parts of the
図14Bでは、デバイス600は、入力部分1495A1が所定の期間(例えば、ゼロでない時間長、0.25秒、0.5秒)にわたって場所1410Aで維持されていると判定している。図14Bに示すように、この判定に従って、デバイス600は、視覚境界部608によって囲まれたエリアを収縮する。いくつかの実施形態では、視覚境界部608によって囲まれたエリアを収縮することにより、視覚境界部を(例えば、入力の更なる移動を使用して)現在は修正することができるというインジケーションを提供する。視覚境界部608によって囲まれたエリアを低減することにより、視覚部分1404のエリアが低減し、暗色部分1406のエリアが増加する。いくつかの実施形態では、デバイス600は、視覚境界部608が収縮し、視覚境界部608が空いているエリアに暗色部分1406が拡張する、アニメーションを表示する。視覚境界部608によって囲まれたエリアを収縮することに加えて、デバイス600は、触知出力1412Aを生成し、ズームアフォーダンス622表示を停止する。入力部分1495A1を検出した後に、デバイス600は、場所1410Aから認識して(aware from)、下向き方向に動く全体入力1495Aの入力部分1495A2を検出する。
In FIG. 14B,
図14Cに示すように、入力部分1495A2を検出したことに応答して、デバイス600は、入力部分1495A2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。デバイス600は、新たに視覚境界部608を表示する。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Aのリフトオフを検出する。
As shown in FIG. 14C, in response to detecting the input portion 1495A2, the
図14Dに示すように、入力1495Aのリフトオフを検出したことに応答して、デバイス600は、視覚境界部608を拡張して、視覚境界部608のサイズを正方形のアスペクト比1416(例えば、視覚部分1404に対応する正方形のアスペクト比)に増大させる。正方形のアスペクト比1416は、所定のアスペクト比である。デバイス600は、入力部分1495A2が所定の正方形のアスペクト比に対して所定の近接範囲内である最終位置を有する視覚境界部608をもたらしたと判定したので、デバイス600は、視覚境界部を、正方形のアスペクト比1416にスナップさせる。全体入力1495Aのリフトオフを検出したことに応答して、デバイス600はまた、触知出力1412Bを生成し、ズームアフォーダンス622を再表示する。更には、デバイス600は、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示す、アスペクト比状態インジケータ1420を表示する。
As shown in FIG. 14D, in response to detecting a lift-off of
いくつかの実施形態では、所定の正方形のアスペクト比(又は任意の他の所定のアスペクト比)に対して所定の近接範囲内である最終位置を有さない入力部分1495A2に従って、視覚境界部608は、入力部分1495A2の大きさ及び方向に基づいて、所定のアスペクト比ではなく表示される。このようにして、ユーザは、カスタムアスペクト比を設定するか、又は所定のアスペクト比を容易に選択することができる。いくつかの実施形態では、デバイス600は、拡張する視覚境界部608のアニメーションを表示する。いくつかの実施形態では、デバイス600は、所定のアスペクト比にスナッピングする視覚境界部608のアニメーションを表示する。いくつかの実施形態では、触知出力412Bは、視覚境界部608が所定のアスペクト比(例えば、アスペクト比1416)にスナップされるときに提供される。
In some embodiments, the
図14Eに示すように、デバイス600は、視覚境界部608の右下の角に対応する所定の場所1404B上の全体入力1495Bの入力部分1495B1を検出する。入力部分1495B1は、場所1404Bで少なくとも所定の時間にわたって維持される接触である。図14Fに示すように、入力部分1495B1を検出したことに応答して、デバイス600は、図14Bで論じられたものと同様の技術を実行する。明確にするために、デバイス600は、視覚境界部608によって囲まれたエリアを収縮し、触知出力1412Cを生成する。デバイス600はまた、全体入力1495Bの入力部分1495B2を検出し、この入力は、場所1404Bから離れて下向き方向に動くドラッグである。
As shown in FIG. 14E, the
図14Gに示すように、入力部分1495B2の移動を検出したことに応答して、デバイス600は、入力部分1495B2の特性(例えば、大きさ及び/又は方向)に基づいて、視覚境界部608をその元の位置から新しい位置に移動又は平行移動させる。視覚境界部608を新しい位置に移動させている間に、デバイス600は、視覚境界部608が4×3のアスペクト比1418にあることを検出する。入力1495Bのリフトオフを検出することなく、視覚境界部608が4×3のアスペクト比1418にあることを検出したことに応答して、デバイス600は、触知出力1412Dを発する。更には、デバイス600は、全体入力1495Bがリフトオフなしで依然として維持されているため、正方形のアスペクト比1416のメディアをキャプチャするようにデバイス600が構成されていることを示すアスペクト比状態インジケータ1420の表示を維持し、アスペクト比状態インジケータ1420を更新するのをやめて、アスペクト比1418(例えば、4:3)のメディアをキャプチャするようにデバイス600が構成されていることを示す。
As shown in FIG. 14G, in response to detecting the movement of the input portion 1495B2, the
図14Hに示すように、デバイス600は、入力部分1495B2を検出し続ける。視覚境界部608は、ここではアスペクト比1421であり、図14Gに示すその位置から新しい位置に移動した。視覚境界部608を新しい位置で表示している間に、デバイス600は、全体入力1495Bのリフトオフを検出する。
As shown in FIG. 14H, the
図14Iに示すように、入力1495Bのリフトオフを検出したことに応答して、デバイス600は、1495Aのリフトオフの検出に対する応答に関連して、図14Dで論じられたものと同様の技術を実行する。明確にするために、図14Iに示すように、デバイス600は、視覚境界部608を所定の16×9のアスペクト比1422に拡張する。更には、デバイス600は、ズームアフォーダンス622を再表示し、アスペクト比状態インジケータ1418を更新して、16×9のアスペクト比1422(例えば、16:9)のメディアをキャプチャするようにデバイス600が構成されていることを示す。いくつかの実施形態では、デバイス600は、入力1495Bのリフトオフに応答して、触知出力を生成する。
As shown in FIG. 14I, in response to detecting the lift-off of
図14Jに示すように、デバイス600は、視覚境界部608の角に対応する既定の入力場所1404B上の入力1495C(例えば、連続的な上向きスワイプジェスチャ)を検出する。デバイス600は、1495Cが所定の期間(例えば、図14Bに関して論じられたのと同じ所定の期間)にわたって既定の入力場所1404B上で維持されていないと判定する。
As shown in FIG. 14J, the
図14Kに示すように、入力1495Cに応答して、デバイス600は、上記図8A〜図8Bにおいてカメラ設定アフォーダンス802を表示するための上述された技術に従って、カメラ設定アフォーダンス624を表示する。しかしながら、入力1495Cが視覚境界部608の角部に対応する場所1404Bで静止接触を含まなかったため、デバイス600は、入力1495Cに応答して、視覚境界部608を調整しない。いくつかの実施形態では、カメラ設定アフォーダンス624及びカメラ設定アフォーダンス802は、同一である。カメラ設定アフォーダンス624を表示している間に、デバイス600は、アスペクト比コントロール1426上の入力1495Dを検出する。
As shown in FIG. 14K, in response to the
図14Lに示すように、入力1495Dを検出したことに応答して、デバイス600は、調整可能なアスペクト比コントロール1470を表示する。調整可能なアスペクト比コントロール1470は、アスペクト比オプション1470A〜1470Dを含む。図14Lに示すように、アスペクト比オプション1495Cは、太字化され、かつ選択され、これは、アスペクト比状態インジケータ1420によって示される状態と一致する。調整可能なアスペクト比コントロール1470を表示している間に、デバイス600は、アスペクト比オプション1470B上の入力1495Eを検出する。
As shown in FIG. 14L, in response to detecting
図14Mに示すように、入力1495Eを検出したことに応答して、デバイス600は、視覚境界部1408及び視覚部分1410を16×9のアスペクト比から4×3のアスペクト比に更新する。図14Mでは、デバイス600は、入力1495Fを検出し、この入力は、ライブプレビュー630における下向きスワイプである。
As shown in FIG. 14M, in response to detecting the
14Nに示すように、入力1495Fを検出したことに応答して、デバイス600は、図8Q〜図8Rにおいて上述された技術に従って、カメラ設定アフォーダンス624の表示を停止する。図14Nでは、デバイス600は、入力1495Gを検出し、この入力は、視覚境界部608の右上の角に対応する既定の入力場所1410Aでのタップジェスチャである。
As shown in 14N, in response to detecting
図14Oに示すように、入力1495Gを検出したことに応答して、デバイス600は、入力1495Gが所定の期間にわたって既定の入力場所1410Aで維持されなかったと判定する。入力1495Gが視覚境界部を調整する条件を満たさなかったため、デバイス600は、入力1495Gに応答して、視覚境界部608を調整しない。入力1495Gに応答して、デバイス600は、ライブプレビュー630を更新し、タップ入力1495Gの場所に基づいて、焦点及び露出設定を調整することにより画像キャプチャ設定を調整する。図14Oに示すように、視覚部分1404は、更新された焦点及び露出設定により、よりぼけて、かつ焦点から外れて見える。
As shown in FIG. 14O, in response to detecting
図14Pでは、デバイス600は、ライブプレビュー630内の場所(例えば、視覚境界部608の角1410A〜1410Dのうちの1つではない場所)上の全体入力1495Hの入力部分1495H1を検出する。全体入力1495Hは、第1の接触、続いてリフトオフ、及び次いで第2の接触を含む。入力部分1495H1は、所定の期間よりも長く維持される(例えば、図14Bの入力部分1495A1と少なくとも同じ期間にわたって維持される)静止接触(例えば、全体入力1495Hの第1の接触)である。
In FIG. 14P, the
図14Qに示すように、入力部分1495H1を検出したことに応答して、デバイス600は、ライブプレビューを更新し、入力部分1495H1の場所での光値に基づいてキャプチャ設定を更新する、露出ロック機能をアクティブ化する。デバイス600はまた、露出設定マニピュレータ1428表示する。
As shown in FIG. 14Q, in response to detecting the input portion 1495H1, the
図14Rでは、デバイス600は、全体入力1495Hの入力部分1495H2(例えば、全体入力1495Hの第2の接触)を検出し、この入力は、全体入力1495Hの第2の接触で行われるドラッグの移動である。図14Sに示すように、デバイス600は、入力部分1495H2の特性(例えば、大きさ及び/又は方向)に基づいて、露出設定マニピュレータ1428を新しい値に更新する。
In FIG. 14R, the
図14Tに示すように、デバイス600は、露出設定マニピュレータ1428の表示を維持する。デバイス600はまた、入力1495Iを検出し、この入力は、既定の入力場所1410Aから開始する水平スワイプであり、この入力場所は、視覚境界部608の右上の角である。
As shown in FIG. 14T, the
図14Uに示すように、入力1495Iを検出したことに応答して、デバイス600は、図8D〜図8Hで論じられた同様の技術に従ってカメラモードを変更する。しかしながら、入力1495Iが視覚境界部608の角部に対応する既定の入力場所1410Aで所定の期間にわたって検出された静止接触構成要素を含まなかったため、デバイス600は、入力1495Iに応答して、視覚境界部608を調整しない。
As shown in FIG. 14U, in response to detecting input 1495I,
図15A〜図15Cは、いくつかの実施形態による電子デバイスを使用してメディアアイテムを修正するための方法を示すフロー図である。方法1500は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
15A-15C are flow diagrams illustrating methods for modifying media items using electronic devices according to some embodiments.
後述するように、方法1500は、メディアアイテムを修正するための直感的な仕方を提供する。この方法は、メディアアイテムを修正する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアアイテムを修正することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示することであって、カメラユーザインタフェースが、1つ以上のカメラの視野の表現(例えば、630)を含むカメラディスプレイ領域(例えば、604)を含む(例えば、同時に表示する)、カメラユーザインタフェースを表示する(1502)。 The electronic device (eg, 600) is to display the camera user interface via a display device, the camera display area, wherein the camera user interface includes a representation of the field of view of one or more cameras (eg, 630). Display camera user interfaces (eg, display simultaneously), including (eg, 604) (1502).
いくつかの実施形態では、カメラユーザインタフェースは、第1のメディアキャプチャモードで動作するように電子デバイス(例えば、600)が構成されているインジケーションを更に含む。いくつかの実施形態では、カメラディスプレイ領域(例えば、604)上の第2の方向(例えば、垂直)への第4の接触の連続的移動を検出することを含む、第4の入力の検出に従い(例えば、第3の所定の閾値を上回る)(例えば、特性を調整するコントロールを表示する要求)(いくつかの実施形態では、特性を調整するコントロールを表示する要求は、カメラモードを切り替える要求のためのコンテンツの連続的な移動によって検出される方向とは異なる(例えば、反対の)方向への連続的な接触の移動によって検出される)、電子デバイス(例えば、600)は、メディアキャプチャ動作に関連付けられた特性(例えば、設定)を調整するコントロール(例えば、スライダ)を表示する。第2の方向への第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従い、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することにより、ユーザが、コントロールに迅速かつ容易にアクセスすることを可能にする。追加表示されたコントロールによりユーザインタフェースを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性が改善され、ユーザ−デバイスインタフェースを(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)更に効率的にし、加えて、ユーザがデバイスを更に素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用を削減し、バッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示している間に、電子デバイス(例えば、600)は、特性(例えば、光量、持続時間など)の第1の値の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する。いくつかの実施形態では、メディアキャプチャ動作(例えば、光量、持続時間など)に関連付けられた特性の第2の値に制御特性(例えば、光量、持続時間など)を調整するための要求(コントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)にドラッグすること)を受信したことに応答して、電子デバイス(例えば、600)は、特性の第1の値の第1のインジケーションの表示を、特性の第2の値の第2のインジケーションの表示に置き換える。いくつかの実施形態では、特性の値は、設定時に表示される。いくつかの実施形態では、特性の値は、表示されない。 In some embodiments, the camera user interface further comprises an indication in which the electronic device (eg, 600) is configured to operate in the first media capture mode. In some embodiments, according to the detection of a fourth input, including detecting the continuous movement of a fourth contact in a second direction (eg, vertical) on the camera display area (eg, 604). (For example, above a third predetermined threshold) (For example, a request to display a control for adjusting a characteristic) (In some embodiments, a request for displaying a control for adjusting a characteristic is a request for switching a camera mode. An electronic device (eg, 600) that is detected by a continuous movement of contact in a direction different from (eg, opposite) the direction detected by the continuous movement of the content for the media capture operation. Display controls (eg, sliders) that adjust associated characteristics (eg, settings). By displaying controls that adjust the characteristics associated with the media capture operation according to the detection of the fourth input, including detecting the continuous movement of the fourth contact in the second direction. Allows quick and easy access to controls. By providing additional control options without cluttering the user interface with the additionally displayed controls, the usability of the device is improved and the user-device interface is suitable (eg, when manipulating / interacting with the device). Powering the device by assisting the user in providing input and reducing user error) and by allowing the user to use the device more quickly and efficiently. Reduce usage and improve battery life. In some embodiments, the electronic device (eg, 600) is the first of the characteristics (eg, light intensity, duration, etc.) while displaying the controls that adjust the characteristics associated with the media capture operation. Display the first indication of the value (eg, a number, a slider knob (eg, a bar) on the slider track). In some embodiments, a requirement (on control) for adjusting a control characteristic (eg, light intensity, duration, etc.) to a second value of the characteristic associated with a media capture operation (eg, light intensity, duration, etc.). In response to receiving an indication (eg, value) on an adjustable control, the electronic device (eg, 600) has a first value of the first value of the characteristic. Replace the display of the indication with the display of the second indication of the second value of the characteristic. In some embodiments, the value of the property is displayed at the time of setting. In some embodiments, the value of the property is not displayed.
メディアをキャプチャする要求を受信したことに応答して(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応答して)、第1のアスペクト比(例えば、1400)でメディアをキャプチャするように電子デバイス(例えば、600)が構成されている間に、電子デバイスは、1つ以上のカメラの視野の表現上のそれぞれの場所(例えば、カメラディスプレイ領域の角部に対応する場所)に第1の接触を含む第1の入力(例えば、タッチアンドホールド)を検出する(1504)。 In response to receiving a request to capture the media (eg, in response to activation of the physical camera shutter button or activation of the virtual camera shutter button), the media in the first aspect ratio (eg, 1400). While the electronic device (eg, 600) is configured to capture, the electronic device is located at each location on the representation of the field of view of one or more cameras (eg, a location corresponding to a corner of the camera display area). ) Detects a first input (eg, touch and hold) that includes a first contact (1504).
第1の入力を検出したことに応答して(1506)、1組のアスペクト比変化基準が満たされているという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化に応答して)、第1のアスペクト比とは異なる第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイスを構成する(1508)。1組のアスペクト比変化基準は、少なくとも閾値時間量にわたってメディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示すカメラディスプレイ領域の既定の部分(例えば、角部)に対応する第1の場所で第1の接触を維持することを第1の入力が含むと満たされる基準を含み、続いて、第1の場所とは異なる第2の場所への第1の接触の移動を検出する(1510)。メディアをキャプチャする要求に応答して、1組のアスペクト比変化基準が満たされているという判定に従って、第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように電子デバイスを構成することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting the first input (1506), the electronic device (eg, 600) responds to the request to capture the media according to the determination that a set of aspect ratio change criteria is met. Electronic to capture media in a second aspect ratio (eg 1416) that is different from the first aspect ratio (eg, in response to activation of the physical camera shutter button or activation of the virtual camera shutter button). Configure the device (1508). A set of aspect ratio change criteria is the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time (eg, activation of the physical camera shutter button or activation of the virtual camera shutter button). Includes criteria that are met when the first input includes maintaining the first contact at the first location corresponding to a predetermined portion (eg, corner) of the camera display area indicating at least a portion of the camera display area, followed by , Detect the movement of the first contact to a second location that is different from the first location (1510). In response to a request to capture media, the electronic device is configured to capture media with a second aspect ratio that is different from the first aspect ratio, according to the determination that a set of aspect ratio change criteria is met. By doing so, the electronic device operates when a set of conditions is met without requiring further user input, which enhances the usability of the device and provides a user-device interface (eg, for example). More efficient (by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), plus the user using the device faster and more efficiently By allowing it, the power usage of the device is reduced and the battery life is improved.
いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応答して、第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、第1の触知(例えば、触覚)出力を提供する(1512)。第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、第1の触知出力を提供することは、第1の接触が少なくとも閾値時間量にわたって第1の場所で維持されているというフィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input is first in place at a first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) provides a first tactile (eg, tactile) output (1512). Providing a first tactile output according to the determination that the first portion of the first input comprises maintaining the first contact in the first place for at least a threshold time amount is the first. It provides the user with feedback that the contact has been maintained in the first place for at least a threshold amount of time. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life.
いくつかの実施形態では、第1の入力の少なくとも第2の部分を検出したことに応答して、第1の入力の第2の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部(例えば、1410)(例えば、ボックス)の視覚インジケーションを表示する(1514)。第1の入力の第2の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、キャプチャされる、メディアの境界部の視覚インジケーションを表示することにより、メディアの部分がキャプチャされるという視覚的フィードバックをユーザに提供する。ユーザに改善された視覚的フィードバックを提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting at least the second portion of the first input, the second portion of the first input is first at the first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) is captured in response to a request to capture the media, a visual indicator of the media boundary (eg, 1410) (eg, box). Display (1514). Display visual indications of media boundaries captured according to the determination that the second portion of the first input involves maintaining the first contact at the first location for at least a threshold amount of time. This provides the user with visual feedback that a portion of the media is captured. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、視覚インジケーション(例えば、1410)が表示されている間に、及び第1の入力の少なくとも第3の部分を検出したことに応答して、第1の入力の第3の部分が第1の接触の移動を含むという判定に従って、第1の接触が閾値時間量にわたって第1の場所で維持された後に、第1の接触の移動は第1の大きさ及び第1の方向を有し、電子デバイス(例えば、600)は、第1の大きさ及び第1の方向に基づいて視覚インジケーションの外観を修正する(例えば、視覚インジケーションを調整して、キャプチャされるメディアの境界部への変化を示す)(1516)。 In some embodiments, while the visual indication (eg, 1410) is displayed, and in response to detecting at least a third portion of the first input, a third of the first input. The movement of the first contact is of the first magnitude and the first after the first contact is maintained in the first place for a threshold amount of time according to the determination that the portion of the first contains the movement of the first contact. The media having orientation, the electronic device (eg, 600) modifies the appearance of the visual indication based on the first magnitude and the first orientation (eg, adjusting the visual indication to capture the media). (Shows the change to the boundary) (1516).
いくつかの実施形態では、第1の入力の少なくとも第1の部分を検出したことに応答して、第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーション(例えば、押し戻されている(又は収縮している)境界部のアニメーション)を表示する(1518)。第1の入力の第1の部分が、少なくとも閾値時間量にわたって第1の場所で第1の接触を維持することを含むという判定に従って、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを縮小することを含むアニメーションを表示することにより、表現の一部分のサイズが縮小され、一方、ユーザが、サイズを迅速かつ容易に低減することもできるという視覚的フィードバックをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、改善された視覚的フィードバック及び追加の制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting at least the first portion of the first input, the first portion of the first input is first at the first location for at least a threshold amount of time. According to the determination that it involves maintaining contact, the electronic device (eg, 600) is an animation (eg, pushed back) that involves reducing the size of a portion of the field of view representation of one or more cameras indicated by the visual indication. (Animation of the boundary (or contracting)) is displayed (1518). Representation of the field of view of one or more cameras as indicated by visual indication, according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least a threshold amount of time. By displaying an animation that involves reducing the size of a portion of the representation, the size of the portion of the representation is reduced, while providing the user with visual feedback that the size can also be reduced quickly and easily. do. By providing improved visual feedback and additional control options without cluttering the UI with additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device) is enhanced. (By assisting the user in providing proper input when interacting with the device and reducing user errors), and in addition, allowing the user to use the device faster and more efficiently. By doing so, the power usage of the device is reduced and the battery life is improved.
いくつかの実施形態では、視覚インジケーションが表示されている間に、及び第1の入力の少なくとも第4の部分を検出したことに応答して、第1の入力の第4の部分が、第1の接触のリフトオフを含むという判定に従って、電子デバイス(例えば、600)は、視覚インジケーションによって示される1つ以上のカメラの視野の表現の一部分のサイズを増大する(例えば、第1の境界部ボックスを第1の比率(例えば、拡張率)で拡張する)ことを含むアニメーションを表示する(1520)。 In some embodiments, the fourth portion of the first input is the fourth while the visual indication is displayed and in response to detecting at least the fourth portion of the first input. According to the determination that the lift-off of one contact is included, the electronic device (eg, 600) increases the size of a portion of the field of view representation of one or more cameras indicated by the visual indication (eg, the first boundary). Display an animation that includes expanding the box with a first ratio (eg, expansion ratio) (1520).
いくつかの実施形態では、1つ以上のカメラの視野の表現の第1の部分は、メディアの境界部の視覚インジケーション(例えば、1410)によって選択されたものとして示され(例えば、境界部(例えば、ボックス)内に取り囲まれ)、1つ以上のカメラの視野の表現の第2の部分は、メディアの境界部の視覚インジケーションによって選択されたものとして示されていない(例えば、境界部(例えば、ボックス)の外側)。第1の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示され、第2の部分がメディアの境界部の視覚インジケーションによって選択されたものとして示されていないことにより、ユーザが、選択されているかされていない表現の部分を迅速かつ容易に視覚的に区別することを可能にする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第2の部分は、第1の部分から視覚的に区別される(例えば、暗色又は陰影の付いた外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。 In some embodiments, the first portion of the field of view representation of one or more cameras is shown as selected by a visual indication of the boundary of the media (eg, 1410) (eg, the boundary (eg, 1410). The second part of the field of view representation of one or more cameras (enclosed in a box, for example) is not shown as selected by visual indication of the boundary of the media (eg, the boundary (eg, the boundary). For example, outside the box). The first part is shown as selected by the visual indication of the media border, and the second part is not shown as selected by the visual indication of the media border, so that the user Allows a quick and easy visual distinction between selected and unselected parts of the expression. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, the second portion is visually distinguished from the first portion (eg, has a dark or shaded appearance) (eg, a second portion of the field of view of one or more cameras). Has a translucent overlay on the part of).
いくつかの実施形態では、第2のアスペクト比(例えば、1416)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にある移動(例えば、大きさ及び方向)の第1の大きさ及び/又は方向を有する第2の場所への第1の接触の移動に従って、所定のアスペクト比(例えば、4:3、正方形、16:9)でメディアをキャプチャするように電子デバイスを構成することを含む。いくつかの実施形態では、第2のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、第1の移動範囲(例えば、全てが所定のアスペクト比に対応するベクトルの範囲)内にない移動(例えば、大きさ及び方向)の第2の大きさ及び/又は方向を有する第2の場所への第1の接触の移動に従って、所定でなく(例えば、動的アスペクト比)、かつ移動の大きさ及び/又は方向に基づく(例えば、移動の大きさ及び/又は方向に基づく)アスペクト比でメディアをキャプチャするように電子デバイスを構成することを含む。 In some embodiments, configuring an electronic device (eg, 600) to capture media in a second aspect ratio (eg, 1416) is a first range of movement (eg, all in a predetermined aspect). A predetermined aspect ratio according to the movement of the first contact to a second place having a first magnitude and / or direction of movement (eg, magnitude and direction) within (a range of vectors corresponding to the ratio). Includes configuring an electronic device to capture media in (eg, 4: 3, square, 16: 9). In some embodiments, configuring an electronic device (eg, 600) to capture media in a second aspect ratio is a vector in which the first range of movement (eg, all correspond to a given aspect ratio). According to the movement of the first contact to a second place having a second magnitude and / or direction of movement (eg, magnitude and direction) that is not within (eg, dynamic aspect). Ratio) and includes configuring the electronic device to capture the media in an aspect ratio based on the magnitude and / or direction of the movement (eg, based on the size and / or direction of the movement).
いくつかの実施形態では、所定のアスペクト比でメディアをキャプチャするように電子デバイス(例えば、600)を構成することは、1つ以上の触知出力デバイスを介して、第2の触知(例えば、触覚)出力を生成することを含む。所定のアスペクト比でメディアをキャプチャするように電子デバイスを構成するときに、第2の触知出力を生成することにより、アスペクト比設定のフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, configuring an electronic device (eg, 600) to capture media at a predetermined aspect ratio is a second tactile (eg, eg) tactile output device via one or more tactile output devices. Includes producing (tactile) output. When the electronic device is configured to capture media with a predetermined aspect ratio, it provides the user with feedback on the aspect ratio setting by generating a second tactile output. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do.
いくつかの実施形態では、第1の入力を検出する前に、電子デバイス(例えば、600)は、第1のカメラモードを使用してメディアをキャプチャするように構成される。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真(phot)/静止(still)、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイス(例えば、600)が構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、電子デバイス(例えば、600)は、デバイスが第1のカメラモードに構成されているというインジケーションを表示する。いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力が閾値時間量にわたって第1の場所で第1の接触を維持することを含まないという判定、及び第1の入力が第1の移動閾値を超える第1の接触の移動を含む(例えば、第1の入力は、初期休止なしで表示デバイスの一部分を横切るスワイプである)という判定に従って、第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成することを含む。いくつかの実施形態では、電子デバイス(例えば、600)は、第2のカメラモードにある間、第1のアスペクト比を使用してメディアをキャプチャするように構成される。いくつかの実施形態では、第2のカメラモードを使用するように電子デバイスを構成することは、デバイスが第2のカメラモードに構成されているというインジケーションを表示することを含む。 In some embodiments, the electronic device (eg, 600) is configured to capture the media using the first camera mode before detecting the first input. In some embodiments, each camera mode (eg, video, photo (phot) / still, portrait, slow motion, panorama mode) is such that the camera (eg, camera sensor) captures the media. Multiple settings (eg, portrait camera) with multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). Mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if an electronic device (eg, 600) is configured to operate in still photo mode, then one or more cameras in the electronic device will have certain settings (eg, flash settings, 1) when activated. If the electronic device is configured to capture media of a first type (eg, a rectangular photo) with one or more filter settings) and operate in square mode, then one or more cameras in the electronic device When activated, it captures a second type of media (eg, a square photo) with certain settings (eg, flash settings and one or more filters) and electronically to operate in slow motion mode. When the device is configured, one or more cameras in the electronic device, when activated, have a third type (eg, slow) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media of media (motion video) and operate in portrait mode, one or more cameras of the electronic device will have a specific setting (eg, a specific type of light (eg, a specific type of light). For example, capturing media of a fifth type (eg, a portrait photo (eg, a photo with a blurred background)) having an amount of stage light, studio light, contour light, f-value, blur), When the electronic device is configured to operate in panoramic mode, one or more cameras of the electronic device have a fourth setting (eg, zoom, amount of field of view for moving and capturing). Capture media of a type (eg, a panoramic photo (eg, a wide photo). In some embodiments, when switching between modes, the display of the visual field representation corresponds to the type of media captured by the mode. (For example, while the electronic device is operating in still photo mode, this representation is in rectangular mode, and while the electronic device is operating in square mode, this representation is square). In one embodiment, the electronic device (eg, 600) displays an indication that the device is configured in the first camera mode. In some embodiments, the first input is detected. In response, a determination that the first input does not include maintaining the first contact in the first place for a threshold time amount, and that the first input exceeds the first movement threshold of the first contact. Transfer Capture media using a second camera mode that is different from the first camera mode, as determined to include motion (eg, the first input is a swipe across a portion of the display device without initial pause). Including configuring an electronic device (eg, 600) to do so. In some embodiments, the electronic device (eg, 600) is configured to capture media using the first aspect ratio while in the second camera mode. In some embodiments, configuring the electronic device to use the second camera mode includes displaying an indication that the device is configured in the second camera mode.
いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力(例えば、境界部ボックスの角部上での短期間のタッチ)が閾値時間量未満にわたって第1の場所で第1の接触を検出する(例えば、焦点を設定する要求を検出する)ことを含むという判定に従って、電子デバイス(例えば、600)は、第1の場所に対応するカメラの視野内の場所でのコンテンツに基づく焦点設定でメディアをキャプチャするように電子デバイスを構成することを含む、焦点設定を調整する(1522)。第1の入力が閾値時間量未満にわたって第1の場所で第1の接触を検出することを含むという判定に従って、焦点設定を調整することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to the detection of the first input, the first input (eg, a short-term touch on the corner of the boundary box) is the first over a threshold time amount. According to the determination that the location comprises detecting a first contact (eg, detecting a request to set a focus), the electronic device (eg, 600) is located in the field of view of the camera corresponding to the first location. Adjust the focus settings, including configuring the electronic device to capture the media with content-based focus settings in (1522). Adjusting the focus setting according to the determination that the first input involves detecting the first contact at the first location for less than the threshold time amount reduces the number of inputs required to perform the operation. This enhances the usability of the device and provides a user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.
いくつかの実施形態では、第1の入力を検出したことに応答して、第1の入力(例えば、境界部ボックスの角部ではない表現上のいずれかの場所上での長期間のタッチ)が、メディアをキャプチャする要求(例えば、物理カメラシャッターボタンのアクティブ化又は仮想カメラシャッターボタンのアクティブ化)に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域(例えば、604)の既定の部分(例えば、角部)に対応しない第3の場所(例えば、第1の場所ではない場所)で第2の閾値時間量にわたって第1の接触を維持することを含むという判定に従って、電子デバイス(例えば、600)は、第3の場所に対応するカメラの視野内の場所でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイスを構成する(1524)。第1の入力が、メディアをキャプチャする要求に応答してキャプチャされる、メディアの境界部の少なくとも一部分を示す、カメラディスプレイ領域の既定の部分に対応しない第3の場所で第2の閾値時間量にわたって第1の接触を維持することを含むという判定に従って、第1の露出設定でメディアをキャプチャするように電子デバイスを構成することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to detecting the first input, the first input (eg, a long-term touch somewhere on the non-corner representation of the boundary box). Indicates at least a portion of the boundary of the media that is captured in response to a request to capture the media (eg, activation of the physical camera shutter button or activation of the virtual camera shutter button), a camera display area (eg, eg). 604) Determining that it involves maintaining a first contact for a second threshold time at a third location (eg, a location other than the first location) that does not correspond to a predetermined portion (eg, a corner). According to, the electronic device (eg, 600) captures the media with a first exposure setting (eg, automatic exposure setting) based on the content at a location within the field of view of the camera corresponding to the third location. (1524). A second threshold time amount at a third location where the first input is captured in response to a request to capture the media, indicating at least a portion of the media boundary and not corresponding to a default portion of the camera display area. Configuring the electronic device to capture the media at the first exposure setting, according to the determination that it involves maintaining the first contact over, reduces the number of inputs required to perform the operation, thereby reducing the number of inputs required to perform the operation. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved.
いくつかの実施形態では、第3の場所に対応するカメラの視野内の場所でのコンテンツに基づく第1の露出設定(例えば、自動露出設定)でメディアをキャプチャするように電子デバイス(例えば、600)を構成することを構成した後に、電子デバイス(例えば、600)は、第3の場所に対応するカメラの視野内の場所でのコンテンツを、1つ以上のカメラの視野内にもはや存在させないという、(例えば、電子デバイスの移動による)1つ以上のカメラの視野の表現の変化を検出する。いくつかの実施形態では、変化を検出したことに応答して、電子デバイス(例えば、600)は、第1の露出設定でメディアをキャプチャするように電子デバイスを構成し続ける。 In some embodiments, an electronic device (eg, 600) captures the media with a first exposure setting (eg, an automatic exposure setting) based on the content at a location within the field of view of the camera corresponding to the third location. ) Is configured so that the electronic device (eg, 600) no longer has content in the field of view of the camera corresponding to the third location in the field of view of one or more cameras. , Detect changes in the representation of the field of view of one or more cameras (eg, due to the movement of an electronic device). In some embodiments, in response to detecting a change, the electronic device (eg, 600) continues to configure the electronic device to capture the media at the first exposure setting.
方法1500に関して上述された処理(例えば、図15A〜図15C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1700、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 1500 (eg, FIGS. 15A-15C) are also applicable to the methods described above and below in a similar manner. For example,
図16A〜図16Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図17A〜図17Bにおける処理を含む、以下で説明される処理を例示するために使用される。 16A-16Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 17A-17B.
図16Aは、デバイス600の長軸が垂直に走る縦向き1602(例えば、垂直)のデバイス600を示す。デバイス600が縦向き1602にある間、デバイスは縦向きカメラインタフェース1680を表示する。縦向きインタフェース1680は、縦向きライブプレビュー1682、ズームトグルアフォーダンス1616、シャッターアフォーダンス1648、及びカメラ切り替えアフォーダンス1650を含む。図16Aにおいて、縦向きライブプレビュー1682は、前面カメラ1608の視野の一部分のライブプレビューである。ライブプレビュー1682は、グレーアウト部分1681及び1683を含まず、これはまた、前面カメラ1608の視野からコンテンツのプレビューを表示する。
FIG. 16A shows a vertically oriented 1602 (eg, vertical)
図16Aに示すように、縦向きライブプレビュー1682は、デバイス600の前面カメラ1608を使用して、画像(例えば、自撮り)を撮影するための準備をしている人1650Aを示す。特に、縦向きライブプレビュー1682は、縦向きライブプレビュー1682での表示に利用可能な、前面カメラ604の視野(例えば、ライブプレビューはズームインされている)の80%を使用するズームレベル1620Aで表示される。縦向きライブプレビュー1682は、画像の右側で部分的に視認可能な人1650Bと画像の左側で部分的に視認可能な人1650Cとの中央にいる人1650A(例えば、デバイス600のユーザ)を示す。上述の方法で縦向きライブプレビュー1682を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695A(例えば、タップ)を検出する。
As shown in FIG. 16A, the portrait
図16Bに示すように、入力1695Aを検出したことに応答して、デバイス600は、縦向きライブプレビュー1682を表すメディアをキャプチャし、縦向きカメラユーザインタフェース1680内にメディアの表現1630を表示する。
As shown in FIG. 16B, in response to detecting
更に、図16Bに示すように、縦向きライブプレビュー1682を表示している間に、デバイス600は、デバイス600を、横向き(例えば、デバイスの長軸が水平に走る)に物理的に回転させる時計方向回転入力1695Bを検出する。いくつかの実施形態では、人1650Aは、水平方向の環境をより多くキャプチャするために(例えば、人1650B及び1650Cを視野内に入れるように)デバイス600を時計方向に回転させる。図16Cに示すように、回転入力1695Bを検出したことに応答して、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1680を、横向きカメラインタフェース1690に置き換える。横向きカメラインタフェース1690は、横向き1604にズームレベル1620Bで表示される横向きライブプレビュー1692を含む。
Further, as shown in FIG. 16B, while displaying the portrait
ズームレベル1620Bは、デバイス600が前面カメラ1608の視野(「FOV」)の100%を使用して、横向きライブプレビュー1692を表示するという点で、ズームレベル1620Aとは異なる。ズームレベル1620Aの代わりに、ズームレベル1620Bを使用して、横向きライブプレビュー1692を表示することにより、横向きライブプレビュー1692を、よりズームアウトして表示させる。図16Cに示すように、横向きライブプレビュー1692は、人1650A、並びに人1650B及び1650Cの顔全体を示す。したがって、横向きライブプレビュー1692により、ズームレベル1620B(FOVの100%)である間、ユーザは、コンテンツの率がより高い写真(例えば、潜在的な写真)をフレームに収めることができる。横向きライブプレビュー1692はまた、縦向きライブプレビュー1682に示されていなかった、新しい人(人1650D)を示す。いくつかの実施形態では、ユーザは典型的には、デバイスの前カメラを使用して、横向きよりも縦向きで環境をキャプチャすることをより望むため、デバイス600は、デバイスの向きが縦から横に変化するときに、自動的にズームレベル1620A(FOVの80%)とズームレベル1620B(FOVの100%)との間をシフトする。図16Cの横向きライブプレビュー1692を表示している間に、デバイス600は、シャッターアフォーダンス1648上の入力1695B(例えば、タップ)を検出する。図16Dに示すように、入力1695Bを検出したことに応答して、デバイス600は、横向きライブプレビュー1692を表すメディアをキャプチャし、横向きカメラユーザインタフェース1690内にメディアの表現1632を表示する。表現1632は、それが、横向き1604であり、ズームレベル1620B(FOVの100%)と一致するという点で、表現1630とは異なる。
The
デバイス600はまた、様々な手動入力に基づいてズームレベルを変更することも可能である。例えば、ズームレベル1620Bで横向きライブプレビュー1692を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上のデピンチ入力1695D又はタップ入力1695DDを検出する。図16Eに示すように、入力1695D又はタップ入力1695DDを検出したことに応答して、デバイス600は、ズームレベル1620B(FOVの100%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。いくつかの実施形態では、ズームレベル1620B(FOVの100%)である間のデピンチジェスチャにより、デピンチジェスチャの大きさに完全基づいてズームレベルを設定するよりもむしろ、ズームレベル1620A(80%のFOV、所定のズームレベル)でスナップする。しかしながら、横向きライブプレビュー1692のズームレベルを変更するとき、ライブプレビュー1692は、横向き1604のままである。ズームレベルを変更した結果として、横向きライブプレビュー1692は、現在、人1650Bの一部分のみを表示し、人1650Dの表示を停止する。また、ズームレベルが図16Bのズームレベルと同じズームレベルに変更されている間、横向きライブプレビュー1692は、縦向きライブプレビュー1682とは異なる、デバイス600が現在横向き1604にあるため示された画像を示す。ズームレベル1620Aで横向きライブプレビュー1692を表示している間に、デバイス600は、デピンチ入力1695Eを検出する。
The
図16Fに示すように、入力1695Eを検出したことに応答して、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620C(例えば、FOVの40%)に戻るように横向きライブプレビュー1692のズームレベルを変更する。ここで、横向きライブプレビュー1692は、人1650Aの顔の一部分及び少量の人1650B及び1650Cのみを示す。いくつかの実施形態では、ズームレベル1620A(例えば、FOVの80%)とズームレベル1670(例えば、FOVの40%)との間を切り替えることは、予め定義されておらず、ピンチジェスチャに応答してピンチジェスチャの大きさに基づいて生じる。ズームレベル1620C(FOVの40%)で横向きライブプレビュー1692を表示している間に、デバイス600は、ピンチ入力1695Fを検出する。
As shown in FIG. 16F, in response to detecting
図16Gに示すように、ピンチ入力1695Fを検出したことに応答して、デバイス600は、ズームレベル1620C(FOVの40%)からズームレベル1620A(FOVの80%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16Eに関連して上述した。ズームレベル1620Aで横向きライブプレビューを表示している間に、デバイス600は、ピンチ入力1695Gを検出する。
As shown in FIG. 16G, in response to detecting the pinch input 1695F, the
図16Hに示すように、ピンチ入力1695Gを検出したことに応答して、デバイス600は、ズームレベル1620A(FOVの80%)からズームレベル1620B(FOVの100%)に戻るように横向きライブプレビュー1692のズームレベルを変更し、これは、図16C〜図16Dに関連して上述した。ポートレート横向きライブプレビュー1692を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計方向回転入力1695Hを検出する。
As shown in FIG. 16H, in response to detecting the
図16Iに示すように、回転入力1695Hを検出したことに応答して、デバイス600は、入力を介在することなく自動的に、ズームレベル1620A(FOVの80%)で、縦向き1602で、縦向きライブプレビュー1682を含む縦向きカメラユーザインタフェース1680を表示する。ここで、デバイス600は、ユーザが、追加の入力なしで自動的に、ズームレベル1620Bでのカメラユーザインタフェース1692をズームレベル1620Aでのカメラユーザインタフェース1680(図16Aに示すように)に戻すように変更できるようにすることも可能である。
As shown in FIG. 16I, in response to detecting the
図16Iでは、デバイス600(上述のように)はまた、ポートレートカメラユーザインタフェース1680上にズームトグルアフォーダンス1616を表示する。ズームトグルアフォーダンス1616を使用して、ズームレベル1620A(FOVの80%を使用)とズームレベル1620B(FOVの100%を使用)との間のライブプレビューを変更し、このアフォーダンスは、ユーザにより、ライブプレビューのズームレベルを他のズームレベル(例えば、ズームレベル1620C)に変更することができるピンチ入力(上述のように)とは異なる。1620Bで縦向きライブプレビュー1682を表示している間に、デバイス600は、ズームトグルアフォーダンス1616上の入力1695I(例えば、タップ)を検出する。
In FIG. 16I, the device 600 (as described above) also displays the
図16Jに示すように、入力1695Iを検出したことに応答して、デバイス600は、ズームレベル1620A(FOV視野の80%)からズームレベル1620B(FOVの100%)に縦向きライブプレビュー1682のズームレベルを変更して表示する。ここで、縦向きライブプレビュー1682は、人1650A、並びに人1650B及び1650Cの顔全体を示す。
As shown in FIG. 16J, in response to detecting input 1695I, the
図16J〜図16Nは、デバイス600が、回転入力を検出するときにカメラユーザインタフェースのズームレベルを自動的に変更しないシナリオを示す。図16Jに戻ると、デバイス600は、カメラ切り替えアフォーダンス上の入力1695Jを検出する。
16J-16N show scenarios in which the
図16Kに示すように、入力1695Jを検出したことに応答して、デバイス600は、1つ以上のカメラの視野の少なくとも一部分を示す縦向きライブプレビュー1684を含む縦向きカメラインタフェース1680を表示する。縦向きライブプレビュー1684は、ズームレベル1620Dで表示される。加えて、デバイス600は、前面カメラ1608を使用してメディアをキャプチャするような構成から、1つ以上のカメラを使用してメディアをキャプチャするような構成へと切り替えた。ライブプレビュー1684を表示している間に、デバイス600は、デバイス600の時計方向回転入力1695Kを検出し、縦向きから横向きにデバイスを変更する。
As shown in FIG. 16K, in response to detecting
図16Lに示すように、回転入力1695Kを検出したことに応答して、デバイス600は、横向きカメラインタフェース1690を表示する。横向きカメラインタフェースカメラインタフェース1690は、横向き1604で1つ以上のカメラの視野を示す、横向きライブプレビュー1694を含む。デバイス600は、図16B〜図16Cに見られるように、ズームレベルを自動的に調整しないため、横向きライブプレビュー1694は、デバイス600が背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするように構成されているときに、自動ズーム基準が満たされないため、ズームレベル1620Dで表示されたままである。横向きライブプレビュー1694を表示している間に、デバイス600は、ビデオキャプチャモードアフォーダンスに対応するライブプレビュー1684上の入力1695Lを検出する。
As shown in FIG. 16L, the
図16Mに示すように、入力1695Lを検出したことに応答して、デバイス600は、ビデオキャプチャモードを開始する。ビデオキャプチャモードにおいて、デバイス600は、ズームレベル1620Eで横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)の視野を示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691を表示している間に、デバイス600は、カメラ切り替えアフォーダンス1616上の入力1695Mを検出する。
As shown in FIG. 16M, the
図16Nに示すように、入力1695Mを検出したことに応答して、デバイス600は、横向きカメラインタフェース1691を表示する。横向きカメラインタフェース1691は、横向き1604にFOVを示す横向きライブプレビュー1697を含む。横向きカメラインタフェース1691及びライブプレビュー1697は、ズームレベル1620Eで横向き1604のままである。加えて、デバイス600は、背面カメラ(例えば、前面カメラ1608に対してデバイスの反対側にあるカメラ)を使用してメディアをキャプチャするような構成から、前面カメラ1608へと切り替え、ビデオキャプチャモードのままである。カメラインタフェース1691を表示している間に、デバイス600は、デバイス600を、縦向き1602に戻るように回転させる、反時計方向回転入力1695Nを検出する。
As shown in FIG. 16N, the
図16Oに示すように、回転入力1695Nを受信したことに応答して、デバイス600は、縦向きカメラインタフェース1681を表示する。縦向きインタフェース1681は、デバイス600がビデオモードでメディアをキャプチャするように構成されるときに、自動ズーム基準が満たされないため、ズームレベル1620Eで縦向き1602に前面カメラ1608の視野の少なくとも一部分を示す、ライブプレビュー1687を含む。更に、図16Oに示すように、デバイス600は、通知1640を表示して、参加アフォーダンス1642を含むライブ通信セッションに参加する。通知1640を表示している間に、デバイス600は、通知アフォーダンス1642上の入力(例えば、タップ)1695Oを検出する。
As shown in FIG. 16O, the
図16Pに示すように、入力1695Oを検出したことに応答して、デバイス600は、ライブ通信セッションに参加する。いくつかの実施形態では、ライブ通信セッションに参加することによって、デバイス600は、ビデオキャプチャモードからライブ通信セッションモードへと切り替える。ライブ通信セッションにある間、デバイス600は、ズームレベル1620A(FOVの80%)で縦向きライブプレビュー1689を表示することを含む、縦向き1602で縦向きカメラインタフェース1688を表示する。カメラインタフェース1688を表示している間に、デバイス600は、デバイス600を、横向き1604になるように回転させる、時計方向回転入力1695Pを検出する。
As shown in FIG. 16P, the
図16Qに示すように、回転入力1695Pを検出したことに応答して、デバイス600は、追加のユーザ入力を介在することなく自動的に、縦向きカメラユーザインタフェース1688を、横向きカメラインタフェース1698に置き換える。横向きカメラインタフェース1698は、(例えば、ビデオキャプチャモードにあることとは対照的に)デバイス600がライブ通信セッションでライブビデオを伝送しているときに、1組の自動ズーム基準が満たされるため、ズームレベル1620Bで(例えば、FOVの100%で)表示される横向きライブプレビュー1699を含む。
As shown in FIG. 16Q, in response to detecting the
図17A〜図17Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法1700は、表示デバイス(例えば、タッチ感知ディスプレイ)及びカメラ(例えば、1608;電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
17A-17B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments.
後述するように、方法1700は、ズームレベルを変更するための直感的な仕方を提供する。この方法は、ズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)が第1の向きにある(例えば、1602)(例えば、電子が縦向きに向いている(例えば、電子デバイスが垂直である))間に、電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)でメディア(例えば、画像、ビデオ)をキャプチャする第1のカメラユーザインタフェース(例えば、1680)を表示する(1702)。 While the electronic device (eg, 600) is in the first orientation (eg, 1602) (eg, the electrons are oriented vertically (eg, the electronic device is vertical)), the electronic device is a display device. Media (eg, image, video) in the first camera orientation (eg, portrait) at the first zoom level (eg, zoom ratio (eg, 1x, 5x, 10x)). Display the first camera user interface to capture (eg, 1680) (1702).
電子デバイス(例えば、600)は、第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイスの向きの変化(例えば、1695B)を検出する(1704)。 The electronic device (eg, 600) detects a change in the orientation of the electronic device (eg, 1695B) from a first orientation (eg, 1602) to a second orientation (eg, 1604) (1704).
第1の向き(例えば、1602)から第2の向き(例えば、1604)への、電子デバイス(例えば、600)の向きの変化を検出したことに応答して(1706)(例えば、電子デバイスが縦向きから横向きへ向きが変化している(例えば、電子デバイスが水平))、1組の自動ズーム基準が満たされているという判定に従って(例えば、自動ズーム基準は、電子デバイスが、第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとき、及び/又は電子デバイスが、1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあると満たされる基準を含む)、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示する(1708)(例えば、電子デバイスの向きが縦向きから横向きへ変化していることを検出する)。ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することは、操作を行うために必要な入力の数を減らし、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a change in the orientation of the electronic device (eg, 600) from the first orientation (eg, 1602) to the second orientation (eg, 1604) (eg, the electronic device) (eg, the electronic device). According to the determination that the orientation is changing from portrait to landscape (eg, the electronic device is horizontal) and a set of auto-zoom criteria is met (eg, the auto-zoom criteria is that the electronic device is the first). When using a camera (eg, the front camera) to capture the field of view of the camera and / or the electronic device is associated with one or more other modes (eg, portrait mode, photo mode, live communication session). The electronic device (eg, 600) automatically has a second zoom level that is different from the first zoom level, without the intervention of user input. Display a second camera user interface (eg, 1690) that captures media in the camera orientation (eg, landscape) (1708) (eg, that the orientation of the electronic device is changing from portrait to landscape. To detect). Displaying a second camera user interface that automatically captures media in a second camera orientation at a second zoom level different from the first zoom level without user input is an operation. It reduces the number of inputs required to do this, which enhances the usability of the device and allows the user to provide the user-device interface (eg, to provide the appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.
いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、シャッターボタン)を(例えば、第1のカメラユーザインタフェース内及び第2のカメラユーザインタフェース内に)表示する(1710)。いくつかの実施形態では、電子デバイス(例えば、600)は、メディアキャプチャアフォーダンス(例えば、1648)に対応する第1の入力(例えば、アフォーダンス上でのタップ)を検出する(1712)。いくつかの実施形態では、第1の入力を検出したことに応答して(1714)、第1のカメラユーザインタフェース(例えば、1680)が表示されている間に第1の入力が検出されたという判定に従って、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)でメディアをキャプチャする(1716)。いくつかの実施形態では、第1の入力を検出したことに応答して(1714)、第2のカメラユーザインタフェース(例えば、1690)が表示されている間に第1の入力が検出されたという判定に従って、電子デバイス(例えば、600)は、第2のズームレベル(例えば、1620B)でメディアをキャプチャする(1718)。第1のカメラユーザインタフェースが表示されている間又は第2のカメラユーザインタフェースが表示されている間に、第1の入力が検出されるかどうかの判定に基づいて、異なるズームレベルでメディアをキャプチャすることにより、ズームレベルを手動で構成する必要がないため、ユーザが、メディアを迅速かつ容易にキャプチャすることを可能にする。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) has media capture affordances (eg, selectable user interface objects) (eg, shutter buttons) (eg, within the first camera user interface and second camera). Display (in the user interface) (1710). In some embodiments, the electronic device (eg, 600) detects a first input (eg, a tap on the affordance) corresponding to a media capture affordance (eg, 1648) (1712). In some embodiments, in response to detecting the first input (1714), the first input was detected while the first camera user interface (eg, 1680) was displayed. According to the determination, the electronic device (eg, 600) captures the media at the first zoom level (eg, 1620A) (1716). In some embodiments, in response to detecting the first input (1714), the first input was detected while the second camera user interface (eg, 1690) was displayed. According to the determination, the electronic device (eg, 600) captures the media at a second zoom level (eg, 1620B) (1718). Capture media at different zoom levels based on determining if a first input is detected while the first camera user interface is displayed or while the second camera user interface is displayed. This allows the user to capture the media quickly and easily, as there is no need to manually configure the zoom level. By acting when a set of conditions is met without requiring further user input, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently, the power of the device. Reduced use and improved battery life.
いくつかの実施形態では、第1のカメラユーザインタフェース(例えば、1680)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第1の表現(例えば、1682)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第1の表現は、第1のズームレベル(例えば、1620A)(例えば、カメラの視野の80%、ズーム比(例えば、1×、5×、10×))で第1のカメラの向き(例えば、縦向き)で表示される。いくつかの実施形態では、第1の表現(例えば、1682)は、リアルタイムで表示される。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示することは、カメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の第2の表現(例えば、1692)(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))を表示することを含む。いくつかの実施形態では、第2の表現(例えば、1692)は、第2のズームレベル(例えば、1620B)(例えば、カメラの視野の100%、ズーム比(例えば、1×、5×、10×))で第2のカメラの向き(例えば、横向き)で表示される。いくつかの実施形態では、第2の表現(例えば、1692)は、リアルタイムで表示される。 In some embodiments, displaying a first camera user interface (eg, 1680) is an open observable area visible to the camera (eg, visible to the camera, horizontal of the image at a given distance from the camera lens. Includes displaying a first representation (eg, 1682) of a field of view (or vertical or diagonal) length) (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the first representation is at a first zoom level (eg, 1620A) (eg, 80% of the camera's field of view, zoom ratio (eg, 1x, 5x, 10x)). It is displayed in the orientation of 1 camera (for example, portrait orientation). In some embodiments, the first representation (eg, 1682) is displayed in real time. In some embodiments, displaying a second camera user interface (eg, 1690) is a horizontal view of the image at a given distance from the camera (eg, open observable area visible to the camera, camera lens). Includes displaying a second representation (eg, 1692) of a field of view (or vertical or diagonal) length) (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the second representation (eg, 1692) is a second zoom level (eg, 1620B) (eg, 100% of the camera's field of view, zoom ratio (eg, 1x, 5x, 10). X)) is displayed in the orientation of the second camera (for example, landscape orientation). In some embodiments, the second representation (eg, 1692) is displayed in real time.
いくつかの実施形態では、第1の向き(例えば、1602)は縦向きであり、第1の表現はカメラの視野の一部分であり、第2の向き(例えば、1604)は横向きであり、第2の表現はカメラの視野全体である。いくつかの実施形態では、縦向きでは、カメラインタフェースに表示される表現(例えば、1682)は、カメラの視野のクロッピングされた部分である。いくつかの実施形態では、横向きでは、カメラインタフェースに表示される表現(例えば、1692)は、カメラの視野全体である(例えば、カメラ(例えば、1608)の視野はクロップされない)。
In some embodiments, the first orientation (eg, 1602) is portrait orientation, the first representation is part of the field of view of the camera, and the second orientation (eg, 1604) is landscape orientation. The
いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上でのピンチジェスチャ)を受信する(1720)。いくつかの実施形態では、要求は、自動ズーム基準が満たされているときに受信される(例えば、自動ズーム基準は、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするとき、及び/又は電子デバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)にあると満たされる基準を含む)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第3の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1722)。いくつかの実施形態では、第3の表現は、第1のカメラの向きにあり、かつ第3のズームレベルである。いくつかの実施形態では、第3のズームレベル(例えば、1620B)は、第2のズームレベル(例えば、1620A及び1620B)と同じである。いくつかの実施形態では、ユーザは、ピンチアウト(例えば、2つの接触間の距離が増加するように2つの接触がお互いに対して動く)ジェスチャを使用して、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインすることができる。いくつかの実施形態では、ユーザは、ピンチイン(例えば、2本の指が近づく)ジェスチャを使用して、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。 In some embodiments, the electronic device (eg, 600) has a third zoom level (eg, 1620A) while displaying a first representation of the camera's field of view (eg, 1682). Receives a request (eg, a pinch gesture on the camera user interface) to change to the zoom level (eg, 1620B) of (1720). In some embodiments, the request is received when the auto-zoom criteria are met (eg, auto-zoom criteria are cameras where the electronic device uses a first camera (eg, a front camera). When capturing a field of view, and / or including criteria that are met when the electronic device is in one or more other modes (eg, portrait mode, photo mode, mode associated with a live communication session). In some embodiments, the electronic device (eg, 600) receives a request to change the first zoom level (eg, 1620A) to a third zoom level (eg, 1620B). The display of the first representation (eg, 1682) is replaced with a third representation of the camera's field of view (eg, live preview (eg, live feed of media that can be captured)) (1722). In some embodiments, the third representation is in the orientation of the first camera and is the third zoom level. In some embodiments, the third zoom level (eg, 1620B) is the same as the second zoom level (eg, 1620A and 1620B). In some embodiments, the user uses a pinch-out (eg, the two contacts move relative to each other so that the distance between the two contacts increases) gesture to a first zoom level (eg, for example). You can expressively zoom in from 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg, capturing less camera field of view). In some embodiments, the user uses a pinch-in (eg, two-finger approach) gesture to move from a first zoom level (eg, 100%) to a third zoom level (eg, a second). You can expressively zoom out to a zoom level (eg, 80%)) (eg, capture more of the camera's field of view).
いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、第1のカメラユーザインタフェース及び第2のカメラユーザインタフェースに表示する)(1724)。カメラの視野の第1の表現を表示している間に、ズームトグルアフォーダンスを表示することにより、ユーザが、必要であれば、迅速かつ容易に第1の表現のズームレベルを手動で調整することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、電子デバイス(例えば、600)は、ズームトグルアフォーダンス(例えば、1616)(例えば、選択可能ユーザインタフェースオブジェクト)の選択に対応する第2の入力(例えば、1695I)(例えば、アフォーダンス上でのタップ)を検出する(1726)。いくつかの実施形態では、ズームトグルアフォーダンスの選択は、第1のズームレベルを第4のズームレベルに変更する要求である。いくつかの実施形態では、第2の入力を検出したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える(1728)。いくつかの実施形態では、第4の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))は、第1のカメラの向きにあり、かつ第4のズームレベルである。いくつかの実施形態では、第4のズームレベルは、第2のズームレベルと同じである。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、80%)から第3のズームレベル(例えば、第2のズームレベル(例えば、100%))(例えば、カメラの視野をより少なくキャプチャする)に表現上でズームインする。いくつかの実施形態では、ユーザは、アフォーダンスをタップして、第1のズームレベル(例えば、100%)から第3のズームレベル(例えば、第2のズームレベル(例えば、80%))(例えば、カメラの視野をより多くキャプチャする)に表現上でズームアウトすることができる。いくつかの実施形態では、選択されると、ズームレベルを変更するアフォーダンスは、選択されると、ズームイン状態とズームアウト状態との間をトグルすることができる(例えば、アフォーダンスの表示は、次の選択が表現をズームアウト又はズームインさせることを示すために変化することができる)。 In some embodiments, the electronic device (eg, 600) is zoom toggle affordance (eg, 1616) (eg, selectable) while displaying the first representation of the camera's field of view (eg, 1682). Display a user interface object) (eg, display in a first camera user interface and a second camera user interface) (1724). By displaying the zoom toggle affordance while displaying the first representation of the camera's field of view, the user can quickly and easily manually adjust the zoom level of the first representation if necessary. To enable. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the electronic device (eg, 600) has a second input (eg, 1695I) (eg, 1695I) (eg, 1695I) that corresponds to the selection of a zoom toggle affordance (eg, 1616) (eg, selectable user interface object). (Tap on affordance) is detected (1726). In some embodiments, the choice of zoom toggle affordance is a requirement to change the first zoom level to a fourth zoom level. In some embodiments, in response to detecting a second input, the electronic device (eg, 600) displays the first representation (eg, 1682) as a fourth representation of the camera's field of view. Replace with (eg, live preview (eg, live feed of media that can be captured)) (1728). In some embodiments, the fourth representation (eg, live preview (eg, live feed of media that can be captured)) is oriented to the first camera and is the fourth zoom level. In some embodiments, the fourth zoom level is the same as the second zoom level. In some embodiments, the user taps the affordance to from a first zoom level (eg, 80%) to a third zoom level (eg, a second zoom level (eg, 100%)) (eg, 100%). , Capture less of the camera's field of view) to zoom in on the representation. In some embodiments, the user taps the affordance from a first zoom level (eg, 100%) to a third zoom level (eg, a second zoom level (eg, 80%)) (eg, 80%). , Capture more of the camera's field of view) can be expressively zoomed out. In some embodiments, affordances that change the zoom level when selected can toggle between zoomed in and zoomed out states (eg, the affordance display is as follows: The choice can be changed to indicate that the expression is zoomed out or zoomed in).
いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、第1のカメラユーザインタフェース(例えば、1680)内及び第2のカメラインタフェース(例えば、1690)に表示される。いくつかの実施形態では、ズームトグルアフォーダンス(例えば、1616)は、選択されると、第2のズームレベルを使用してメディアをキャプチャするように電子デバイスを構成するインジケーションとともに、第1のカメラユーザインタフェース内に最初に表示され、かつ選択されると、第1のズームレベルを使用してメディアをキャプチャするように電子デバイス(例えば、600)を構成するインジケーションとともに、第2のカメラユーザインタフェース内に最初に表示される。 In some embodiments, the zoom toggle affordance (eg, 1616) is displayed within the first camera user interface (eg, 1680) and in the second camera interface (eg, 1690). In some embodiments, a zoom toggle affordance (eg, 1616), when selected, is a first camera, along with an interface that configures the electronic device to capture media using a second zoom level. A second camera user interface, with indications that, when first displayed and selected in the user interface, configure an electronic device (eg, 600) to capture media using the first zoom level. First displayed in.
いくつかの実施形態では、カメラの視野の第1の表現(例えば、1682)を表示している間に、電子デバイス(例えば、600)は、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620B)に変更する要求(例えば、カメラユーザインタフェース上でのピンチジェスチャ(例えば、1695D〜1695I))を受信する。いくつかの実施形態では、要求は、電子デバイス(例えば、600)が第1のモードで動作しているときに受信される(例えば、電子デバイスが第1のカメラ(例えば、前カメラ)を使用して、カメラの視野をキャプチャするという判定、及び/又はデバイスが1つ以上の他のモード(例えば、ポートレートモード、写真モード、ライブ通信セッションに関連付けられたモード)で動作しているという判定を含むモード)。いくつかの実施形態では、第1のズームレベル(例えば、1620A)を第3のズームレベル(例えば、1620C)に変更する要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の表現(例えば、1682)の表示を、カメラの視野の第5の表現(例えば、ライブプレビュー(例えば、キャプチャされ得るメディアのライブフィード))に置き換える。いくつかの実施形態では、第5の表現は、第1のカメラの向きにあり、かつ第5のズームレベルである。いくつかの実施形態では、第5のズームレベルは、第2のズームレベルとは異なる。いくつかの実施形態では、ユーザは、デバイスの向きが変更されると、デバイスが表現を自動的に表示しないズームレベルまで、表現をズームイン及びズームアウトすることができる。 In some embodiments, the electronic device (eg, 600) has a third zoom level (eg, 1620A) while displaying a first representation of the camera's field of view (eg, 1682). Receives a request to change to a zoom level of (eg, 1620B) (eg, a pinch gesture on the camera user interface (eg, 1695D to 1695I)). In some embodiments, the request is received when the electronic device (eg, 600) is operating in the first mode (eg, the electronic device uses a first camera (eg, front camera)). And / or the determination that the camera's field of view is captured and / or that the device is operating in one or more other modes (eg, portrait mode, photo mode, mode associated with a live communication session). Modes including). In some embodiments, the electronic device (eg, 600) receives a request to change the first zoom level (eg, 1620A) to a third zoom level (eg, 1620C). The display of the first representation (eg, 1682) is replaced with a fifth representation of the camera's field of view (eg, a live preview (eg, a live feed of media that can be captured)). In some embodiments, the fifth representation is in the orientation of the first camera and is the fifth zoom level. In some embodiments, the fifth zoom level is different from the second zoom level. In some embodiments, the user can zoom in and out on a representation to a zoom level at which the device does not automatically display the representation when the device is reoriented.
いくつかの実施形態では、カメラは、第1のカメラ(例えば、前面カメラ(例えば、第1の側(例えば、電子デバイスの前面ハウジング)に配置されるカメラ)と、第1のカメラとは異なる第2のカメラ(例えば、背面カメラ(例えば、背面側(例えば、電子デバイスの背面ハウジング)に配置される))と、を含む。いくつかの実施形態では、自動ズーム基準は、電子デバイス(例えば、600)が第1のカメラユーザインタフェース(例えば、1680、1690)(例えば、デバイスのユーザによって、カメラの視野の表現が表示されるように設定され、カメラが第1又は第2のカメラに対応する)内に第1のカメラの視野の表現を表示しており、第2のカメラの視野の表現を表示していないと満たされる基準を含む。いくつかの実施形態では、自動ズーム基準が満たされていない(例えば、デバイスが第1のカメラではなく第2のカメラの視野の表現を表示している)(例えば、図16J〜図16K)という判定に従って、電子デバイス(例えば、600)は、ユーザ入力を介在することなく自動的に、第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向き(例えば、横向き)でメディアをキャプチャする第2のカメラユーザインタフェース(例えば、1690)を表示するのをやめる。自動ズーム基準が満たされていないという判定に従って、ユーザ入力を介在することなく自動的に、第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示するのをやめることは、第2のカメラユーザインタフェースへの意図しないアクセスを防ぐ。条件のセットが満たされなかったときに動作を行うのを自動的にやめることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the camera differs from the first camera (eg, a front camera (eg, a camera located on the first side (eg, the front housing of the electronic device)) and the first camera. Includes a second camera (eg, a rear camera (eg, located on the back side (eg, the back housing of the electronic device)). In some embodiments, the automatic zoom reference is an electronic device (eg, eg). , 600) is set to display a representation of the camera's field of view by the user of the first camera user interface (eg, 1680, 1690) (eg, the device), and the camera corresponds to the first or second camera. Includes criteria that are satisfied if the representation of the field of view of the first camera is displayed and the representation of the field of view of the second camera is not displayed. In some embodiments, the automatic zoom criteria are met. According to the determination (eg, the device is displaying a representation of the field of view of the second camera rather than the first camera) (eg, FIGS. 16J-16K), the electronic device (eg, 600) is A second camera user interface (eg, landscape) that automatically captures media in a second camera orientation (eg, landscape) at a second zoom level that is different from the first zoom level, without the intervention of user input. , 1690). According to the determination that the automatic zoom criteria are not met, the media is automatically captured at the second zoom level and in the second camera orientation without the intervention of user input. Stopping displaying the second camera user interface prevents unintended access to the second camera user interface. Automatically stop operating when a set of conditions is not met. Improves the usability of the device and makes the user-device interface (eg, by assisting the user in providing proper input when operating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and the battery life is improved.
いくつかの実施形態では、自動ズーム基準は、電子デバイス(例えば、600)がビデオキャプチャ動作モードになっていないと満たされる基準を含む(例えば、電子デバイスが複数の参加者間のライブ通信セッションにある間にキャプチャされたビデオを含まないビデオをキャプチャする、ビデオをストリーミングする(図16M〜図16N))。 In some embodiments, the auto-zoom criteria includes criteria that are met when the electronic device (eg, 600) is not in video capture operating mode (eg, the electronic device is in a live communication session between multiple participants). Stream the video, capturing the video that does not contain the video captured in the meantime (FIGS. 16M-16N).
いくつかの実施形態では、自動ズーム基準は、ライブ通信セッションのビデオをキャプチャするように電子デバイス(例えば、600)が構成されていると満たされる基準を含む(例えば、複数の参加者間のライブビデオチャットで通信する(例えば、ライブビデオチャットモード)、ライブ通信セッションを促すユーザインタフェースを表示する(例えば、第1のカメラユーザインタフェースがライブ通信セッションインタフェースである)(例えば、図16P〜図16Q))。 In some embodiments, the auto-zoom criteria includes criteria that are met when an electronic device (eg, 600) is configured to capture video for a live communication session (eg, live between multiple participants). Communicate via video chat (eg, live video chat mode), display a user interface that encourages a live communication session (eg, the first camera user interface is the live communication session interface) (eg, FIGS. 16P-16Q). ).
いくつかの実施形態では、第1のズームレベルは、第2のズームレベルよりも高い(例えば、第1のズームレベルは、10×であり、第2のズームレベルは、1×であり、第1のズームレベルは、100%であり、第2のズームレベルは、80%である)。いくつかの実施形態では、第2のカメラユーザインタフェース(例えば、1690)を表示している間に、電子デバイス(例えば、600)は、第2の向き(例えば、1604)から第1の向き(例えば、1602)への電子デバイスの向きの変化を検出する。いくつかの実施形態では、第2の向きから第1の向きへの電子デバイス(例えば、600)の向きの変化(例えば、ランドスケープモードからポートレートモードへとデバイスを切り替えること)を検出したことに応答して、電子デバイスは、表示デバイス上に、第1のカメラユーザインタフェース(例えば、1680)を表示する。いくつかの実施形態では、デバイスを横向き(例えば、ランドスケープモード)から縦向き(例えば、ポートレートモード)に切り替えるときに、カメラユーザインタフェースは、ズームインし、デバイスを縦向きから横向きに切り替えるときに、ズームアウトする。 In some embodiments, the first zoom level is higher than the second zoom level (eg, the first zoom level is 10x, the second zoom level is 1x, and the second The zoom level of 1 is 100%, and the second zoom level is 80%). In some embodiments, while displaying the second camera user interface (eg, 1690), the electronic device (eg, 600) is oriented from the second orientation (eg, 1604) to the first orientation (eg, 1604). For example, the change in the orientation of the electronic device to 1602) is detected. In some embodiments, detecting a change in orientation of an electronic device (eg, 600) from a second orientation to a first orientation (eg, switching the device from landscape mode to portrait mode). In response, the electronic device displays a first camera user interface (eg, 1680) on the display device. In some embodiments, when switching the device from landscape (eg landscape mode) to portrait (eg portrait mode), the camera user interface zooms in and switches the device from portrait to landscape. Zoom out.
方法1700に関して上述された処理(例えば、図17A〜図17B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1900、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 1700 (eg, FIGS. 17A-17B) are also applicable to the methods described above and below in a similar manner. For example,
図18A〜図18Xは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図19A〜図19B、図20A〜図20C、及び図21A〜図21Cにおける処理を含む、以下で説明される処理を示すために使用される。 18A-18X show exemplary user interfaces for managing media using electronic devices according to some embodiments. The user interfaces in those figures are used to indicate the processes described below, including the processes in FIGS. 19A-19B, 20A-20C, and 21A-21C.
具体的には、図18A〜図18Xは、異なるレベルの可視光を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクス)を下回る光量を有する環境は、低光環境と呼ばれる。低光閾値を上回る光量を有する環境は、通常環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定することができる。以下の説明は、デバイス600が低光環境内で動作しているか、又はその外で動作しているかどうかに基づいて、異なるユーザインタフェースを提供することの相互作用を示す。
Specifically, FIGS. 18A-
図18Aに示すように、デバイス600は、カメラディスプレイ領域604、コントロール領域606、及びインジケータ領域602を含む、カメラユーザインタフェースを表示する。ライブプレビュー630は、FOVの表現である。
As shown in FIG. 18A, the
ライブプレビュー630は、明るく照らされた環境において写真を撮影するためにポーズをとる人を示す。それゆえ、FOV内の光量は低光閾値を上回り、デバイス600は、低光環境では動作していない。デバイス600は、低光環境で動作していないため、デバイス600は、FOV内のデータを連続的にキャプチャし、標準フレームレートに基づいてライブプレビュー630を更新する。
図18Bに示すように、デバイス600は、低光環境において写真を撮影するためにポーズをとる人を示すライブプレビュー630を表示し、この低光環境は、ライブプレビュー630が視覚的に暗い画像を表示することによって明らかである。デバイス600は、低光環境で動作しているため、デバイス600は、低光モード状態インジケータ602c及びフラッシュ状態インジケータ602aを表示する。低光モード状態インジケータ602cは、低光モードが非アクティブである(例えば、低光モードで動作するようにデバイス600が構成されていない)ことを示し、フラッシュ状態インジケータ602aは、フラッシュ動作がアクティブである(例えば、画像をキャプチャするときにフラッシュ動作を実行するようにデバイス600が構成されている)ことを示す。いくつかの実施形態では、フラッシュ状態インジケータ602aは、デバイス600が低光環境で動作していない場合であっても、コントロール領域606内に出現することができる。図18Bでは、デバイス600は、低光モード状態インジケータ602c上の入力1895Aを検出する。
As shown in FIG. 18B, the
図18Cに示すように、入力1895Aに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュモード状態インジケータ602aを更新して、フラッシュ動作が非アクティブであることを示す。本実施形態では、より暗い環境においてメディアをキャプチャするときに、光モード及びフラッシュ動作が両方とも有用である間、低光モードは、フラッシュ動作と互いに排他的である。更には、入力1895Aに応答して、デバイス600は、低光モードでメディアをキャプチャするキャプチャ持続時間を設定するための調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804上のインジケーション1818は、低光モードが特定のキャプチャ持続時間に設定されていることを示し、調整可能な低光モードコントロール1804上の各ティックマークは、異なるキャプチャ持続時間を表す。
As shown in FIG. 18C, in response to input 1895A, the
特に、ライブプレビュー630は、図18Bのものよりも図18Cで視覚的に明るい。これは、低光モードがアクティブであるとき、デバイス600が、より低いフレームレート(例えば、より長い露出時間に対応する)を使用して、そのカメラのうちの1つ以上を動作させるためである。低光環境における標準フレームレート(例えば、より高いフレームレート)を使用すると、各フレームに対する露出時間が短いため、(図18Bに示すように)より暗い画像をキャプチャする。したがって、デバイス600が低光モードで動作しているとき(18Cに示すように)、デバイス600は、標準フレームレートからフレームレートを低下させる。
In particular, the
図18Cにおいて、デバイス600は、実質的に静止状態に保持されており、FOV内の対象は、同様に実質的に静止している。いくつかの実施形態では、FOV内のコンテンツが閾値速さを上回って動いている場合(例えば、デバイス600の移動及び/又はFOV内の対象の移動に起因して)、デバイス600は、コンテンツがFOV内で動くと、低いフレームレートでは画像がぼやける可能性があるため、フレームレートを低下させるのをやめるか、移動が検出されない場合よりもフレームレートを下げる度合いをより低くする。デバイス600は、環境内の低光量によるフレームレートの減少と、環境内で検出された移動によるフレームレートの増加との間のオプションをバランスするように構成することができる。
In FIG. 18C, the
図18Dに示すように、入力1895Bを検出したことに応答して、デバイス600は、低光モードを使用してメディアをキャプチャすることを開始した。メディアのキャプチャを開始すると、ライブプレビュー630は、表示を停止される。具体的には、ライブプレビュー630は、暗色化して黒くなる。更には、デバイス600はまた、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、触知応答1820Aを生成する。停止アフォーダンス1806は、停止アフォーダンス1806上の入力によって低光モードキャプチャを停止することができることを示す。更に入力1895Bを検出したことに応答して、デバイス600はまた、インジケーション1818の移動をキャプチャ持続時間がゼロに向かって開始する(例えば、1秒からゼロまでのカウントダウン)。いくつかの実施形態では、調整可能な低光モードコントロール1804はまた、入力1895Bを検出したことに応答して、色が変化する(例えば、白から赤)。
As shown in FIG. 18D, in response to detecting
図18Eに示すように、メディアをキャプチャする間に、デバイス600は、調整可能な低光モードコントロール1804上のインジケーション1818を、ほぼゼロであるキャプチャ持続時間に移動させる。図18Eに示すように、ライブプレビュー630は、1秒のキャプチャ持続時間(例えば、18Eで)とほぼゼロのキャプチャ持続時間との間にキャプチャされたメディアの表現とともに表示される。
As shown in FIG. 18E, while capturing the media, the
図18Fに示すように、低光モードでのメディアのキャプチャを完了した後、デバイス600は、キャプチャされたメディアの表現1812を表示する。デバイス600は、メディアがキャプチャされた後に、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。低光モード状態インジケータ602cは、低光モードがアクティブであることを示すが、デバイス600は、低光モード状態インジケータ602c上の入力1895Cを検出する。
As shown in FIG. 18F, after completing the capture of the media in low light mode, the
図18Gに示すように、入力1895Cを受信したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示し、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。更に、入力1895Cを検出したことに応答して、デバイス600は、調整可能な低光モードコントロール1804の表示を停止する。いくつかの実施形態では、デバイス600が低光条件で標準条件まで動作するとき、調整可能な低光モードコントロール1804は、任意のユーザ入力なしに自動的に表示を停止される。
As shown in FIG. 18G, in response to receiving
特に、低光モードが非アクティブであるため、デバイス630は、そのカメラの1つ以上のカメラのフレームレートを増加させ、ライブプレビュー630は、図18Bのように、視覚的により暗くなる。図18Gでは、デバイス600は、デバイス600が追加のカメラコントロールアフォーダンス614に隣接して表示した、低光モードコントローラアフォーダンス614b上の入力1895Dを検出する。
In particular, because the low light mode is inactive, the
図18Hに示すように、入力1895Dを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示し、フラッシュ状態インジケータ602cを更新して、フラッシュ動作が非アクティブであることを示す。デバイス600は、以前の1秒のキャプチャ持続時間に設定されたインジケーション1818とともに、調整可能な低光モードコントロール1804を再表示する。特に、低光モードがアクティブであるため、デバイス600は、そのカメラの1つ以上のカメラのフレームレートを減少させ、ライブプレビュー630を、図18Cのように、視覚的により明るくする。図18Hでは、デバイス600は、インジケーション1818上の入力1895Eを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。
As shown in FIG. 18H, in response to detecting input 1895D, the
図18Iに示すように、入力1895Eを受信したことに応答して、デバイス600は、1秒のキャプチャ持続時間から2秒のキャプチャ持続時間にインジケーション1818を動かす。1秒の持続時間から2秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を明るくする。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のカメラのフレームレートを減少させる(例えば、更に減少させる)ことにより、及び/又は1つ以上の画像処理技術を適用することにより、より明るいライブプレビュー630を表示する。図18Iでは、デバイス600は、インジケーション1818上の入力1895Fを検出して、調整可能な低光モードコントロール1804を新しいキャプチャ持続時間に調整する。いくつかの実施形態では、入力1895Fは、入力1895Eの第2の部分である(例えば、1895E及び1895Fを含む連続的なドラッグ入力)。
As shown in FIG. 18I, in response to receiving
図18Jに示すように、入力1895Fを検出したことに応答して、デバイス600は、2秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かす。2秒のキャプチャ持続時間から4秒のキャプチャ持続時間までインジケーション1818を動かす間、デバイス600は、ライブプレビュー630を更に明るくする。図10Jでは、デバイス600は、シャッターアフォーダンス610上の入力1895Gを検出する。図18K〜図18Mに示すように、入力1895Gを検出したことに応答して、デバイス600は、図18Kに設定された4秒のキャプチャ持続時間に基づいて、メディアのキャプチャを開始する。図18K〜図18Mは、巻き取りアニメーション1814を示す。巻き取りアニメーション814は、急速に進行する前の0秒(18K)で開始し、4秒マーク(18M)に到達する前の2秒マーク(18L)までの低光モードコントロール1804のアニメーションを含み、これは、調整可能な低光モードコントロール1804のキャプチャされた持続時間(例えば、4秒)に等しい。巻き取りアニメーションは、様々な段階で触知出力を生成する。巻き取りアニメーション1814は、低光モードメディアキャプチャの開始に対応する。いくつかの実施形態では、巻き取りアニメーションは、等間隔で図18K〜図18Mを表示する滑らかなアニメーションである。いくつかの実施形態では、デバイス600は、巻き取りアニメーション(例えば、触知出力1820B〜1820D)とともに触知出力を生成する。いくつかの実施形態では、巻き取りアニメーションは、比較的短い時間(例えば、0.25秒、0.5秒)で発生する。
As shown in FIG. 18J, in response to detecting the
巻き取りアニメーション1814を表示した後、デバイス600は、図18M〜図18Qに示すように、巻き出しアニメーション1822を表示する。巻き出しアニメーション1822は、キャプチャ持続時間に基づいて発生し、発生する画像キャプチャと一致する。巻き出し(Wounding down)アニメーションは、様々な段階で触知出力を生成する。図18Mに戻ると、デバイス600は、4秒のキャプチャ持続時間でインジケーション1818を表示する。
After displaying the take-up
図18Nに示すように、デバイス600は、4秒のキャプチャ持続時間から3.5秒までインジケーション1818を動かし、ライブプレビュー630を更新すること及び触知出力を生成することなく、残りのキャプチャ持続時間を示す。
As shown in FIG. 18N, the
図18Oに示すように、デバイス600は、3.5秒のキャプチャ持続時間から3秒のキャプチャ残り持続時間にインジケーション1818を動かした。デバイス600は、ライブプレビュー630を更新して、3秒のキャプチャ残り持続時間までキャプチャされたカメラデータを表す画像を示す。(例えば、1秒のキャプチャされたカメラデータ)。特に、図18N〜図18Oにおいて、デバイス600は、より明るい画像を示すために、ライブプレビュー630を連続的に更新しない。代わりに、デバイス600は、1秒の間隔のキャプチャ持続時間でライブプレビュー630を更新するだけである。ライブプレビュー630を更新することに加えて、デバイス600は、触知出力1820Eを生成する。
As shown in FIG. 18O, the
図18Pに示すように、デバイス600は、3秒のキャプチャ残り持続時間から2秒のキャプチャ残り持続時間にインジケーション1818を動かし、触知出力1820Fを生成する。更に、18Nを考慮して、ライブプレビュー630は、ここでは視覚的により明るいが、これは、ライブプレビュー630を1秒の間隔で、追加のキャプチャされたカメラデータで更新するためである。いくつかの実施形態では、ライブプレビューは、1秒以外(例えば、0.5秒、2秒)の間隔で更新された。
As shown in FIG. 18P, the
図18Qに示すように、デバイス600は、2秒のキャプチャ残り持続時間から0のキャプチャ残り持続時間にインジケーション1818を動かす。図18Qにおいて、ライブプレビュー630は、図18Pのものよりも視覚的に明るい。
As shown in FIG. 18Q, the
図18Rに示すように、デバイス600は、最大4秒の持続時間にわたってキャプチャを完了し、キャプチャされたメディアの表現1824を表示する。表現1826は、図18O(例えば、1秒のデータ)及び18P(2秒のデータ)のライブプレビューのそれぞれよりも明るく、図18Q(4秒のデータ)のライブプレビューと同等の輝度である。
As shown in FIG. 18R, the
いくつかの実施形態では、デバイス600は、メディアをキャプチャする間及び設定されたキャプチャ持続時間の完了前に、停止アフォーダンス820上の入力を検出する。このような実施形態では、デバイス600は、そのポイントまでキャプチャされたデータを使用して、メディアを生成及び記憶する。図18Sは、キャプチャが4秒のキャプチャで1秒停止される実施形態の結果を示す。18Sにおいて、停止される前に1秒の間隔でキャプチャされたメディアの表現1824は、4秒の持続時間にわたってキャプチャされた、図18Rの表現1826よりも顕著に暗くなる。
In some embodiments, the
図18Rに戻ると、デバイス600は、調整可能な低光モードコントロール1804上で入力1895Rを検出する。図18Tに示すように、入力1895Rを検出したことに応答して、デバイス600は、4秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かす。インジケーション1818をゼロキャプチャ持続時間まで動かすことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。更には、デバイス600は、フラッシュ状態インジケータ602aを更新して、フラッシュ動作がアクティブであることを示す。したがって、低光モードコントロール1804をゼロの持続時間まで設定することは、低光モードをオフにすることと同等である。
Returning to FIG. 18R,
図18Tでは、デバイス600は、追加のコントロールアフォーダンス614上の入力1895Sを検出する。図18Uに示すように、入力1895Sを検出したことに応答して、デバイス600は、コントロール領域606に低光モードコントロールアフォーダンス614bを表示する。
In FIG. 18T,
図18V〜図18Xは、3つの異なる周囲環境における、フラッシュ状態インジケータ602c1〜602c3及び低光モード状態インジケータ602c1〜602c3を示す、ユーザインタフェースの様々なセットを示す。図18V〜図18Xは、デバイス600A、600B、及び600Cを示し、各々がデバイス100、300、500、又は600の1つ以上の機能を含む。デバイス600Aは、オンに設定された調整可能なフラッシュコントロールを表示し、デバイス600Bは、自動に設定された調整可能なフラッシュコントロール662Bを表示し、デバイス600Bは、オフに設定された調整可能なフラッシュコントロール662Cを表示する。上述のように、図6H〜図6Iに関連して、調整可能なフラッシュコントロール662は、デバイス600のフラッシュ設定を設定する。
18V-18X show different sets of user interfaces showing flash state indicators 602c1-602c3 and low light mode state indicators 602c1-602c3 in three different ambient environments. 18V-18X show the devices 600A, 600B, and 600C, each comprising one or more functions of the
図18Vは、インジケータグラフィック1888によって示されるように、FOV内の光量1888が10ルクス〜0ルクスである周囲環境を示す。FOV内の光量が10ルクス〜0ルクス(例えば、非常に低光モード)であるため、デバイス600は、フラッシュがオフに設定されているときにのみ、アクティブとして低光状態インジケータを表示する。図18Vに示すように、低光インジケータ602c2は、アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a2は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに設定されたフラッシュ状態インジケータのみである。
FIG. 18V shows the ambient environment in which the amount of light 1888 in the FOV is 10 lux to 0 lux, as indicated by the indicator graphic 1888. Since the amount of light in the FOV is between 10 lux and 0 lux (eg, very low light mode), the
図18Wは、FOV内の光量1890が20ルクス〜10ルクスである環境を示す。FOV光量が20ルクス〜10ルクス(例えば、適度に低光)であるため、デバイス600は、フラッシュがオンに設定されているときにのみ、非アクティブとして低光状態インジケータを表示する。図18Wに示すように、低光インジケータ602c1は、非アクティブとして表示された低光インジケータのみであり、フラッシュ状態インジケータ602a1は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに設定されたフラッシュ状態インジケータのみである。
FIG. 18W shows an environment in which the amount of light in the FOV is 20 lux to 10 lux. Since the FOV light intensity is 20 lux to 10 lux (eg, moderately low light), the
図18Xは、FOV内の光量1892が20ルクスを上回る周囲環境を示す。FOV内の光量が20ルクス(例えば、標準光)を上回るため、低光インジケータは、デバイス600A〜600Cのいずれにも表示されない。フラッシュ状態インジケータ602c−2は、調整可能なフラッシュコントロール662Aがオンに設定されているため、アクティブに表示される。フラッシュ状態インジケータ602c−3は、調整可能なフラッシュコントロール662Bがオフに設定されているため、非アクティブに表示される。デバイス600Cは、調整可能なフラッシュコントロール662Cが自動に設定されているため、フラッシュ状態インジケータを表示せず、デバイス600は、フラッシュが10ルクスを上回ると自動的に動作しないと判定した。
FIG. 18X shows an ambient environment in which the amount of light 1892 in the FOV exceeds 20 lux. Since the amount of light in the FOV exceeds 20 lux (eg, standard light), the low light indicator is not displayed on any of the devices 600A-600C. The
図19A〜図19Bは、いくつかの実施形態による電子デバイスを使用してフレームレートを変更するための方法を示すフロー図である。方法1900は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法1900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
19A-19B are flow diagrams illustrating methods for changing the frame rate using electronic devices according to some embodiments.
後述するように、方法1900は、フレームレートを変更するための直感的な仕方を提供する。この方法は、フレームレートを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にフレームレートを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示することを含むメディアキャプチャユーザインタフェースを表示する(1902)。 An electronic device (eg, 600) is an open observable area visible to one or more cameras (eg, visible to the camera, horizontal (or vertical or diagonal) of an image at a given distance from the camera lens via a display device. Display a media capture user interface that includes displaying a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera).
いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーション(例えば、602c)(例えば、低光状態インジケータ)を表示する(1906)ことを含む(1904)。可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することにより、ユーザに、可変フレームレートモード(例えば、18B及び18Cの630)の状態の視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することは、可変フレームレート基準が満たされていないという判定に従って、可変フレームレートモードがアクティブであるというインジケーションなしで、メディアキャプチャユーザインタフェースを表示すること(1908)を含む(1904)。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、デバイスが低光モードで動作していることを示す(例えば、低光状態インジケータは、デバイスが低光モードで動作しているかどうかの状態(例えば、アクティブ又は非アクティブ)を含む)。 In some embodiments, displaying the media capture user interface indicates that the variable frame rate mode is active (eg, 602c) (eg, low) according to the determination that the variable frame rate criteria are met. Includes displaying (1906) (light status indicator) (1904). By displaying an indication that the variable frame rate mode is active according to the determination that the variable frame rate criterion is met, the user is visually informed of the state of the variable frame rate mode (eg, 18B and 18C 630). Provide feedback. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, displaying the media capture user interface displays the media capture user interface without the indication that the variable frame rate mode is active, according to the determination that the variable frame rate criteria are not met. Including (1908) to do (1904). In some embodiments, the low light condition indicator (eg, 602c) indicates that the device is operating in low light mode (eg, the low light condition indicator is whether the device is operating in low light mode). Some state (including, for example, active or inactive).
いくつかの実施形態では、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、第1の輝度で表示デバイス上に表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、第1のフレームレートより低い第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて更新された1つ以上のカメラの視野の表現(例えば、1802)は、(例えば、電子デバイスによって)第1の輝度よりも視覚的に明るい第2の輝度で表示デバイス上に表示される(例えば、18B及び18Cの630)。いくつかの実施形態では、フレームレートを減少させることにより、ディスプレイ上に表示されている表現の輝度が増加する(例えば、18B及び18Cの630)。 In some embodiments, the representation of the field of view of one or more cameras (eg, 1802) updated based on the changes detected within the field of view of the camera of one or more at the first frame rate is the first. It is displayed on the display device with the brightness of (eg, 630 of 18B and 18C). In some embodiments, a representation of the field of view of one or more cameras updated based on changes detected within the field of view of the camera at a second frame rate lower than the first frame rate (eg,). , 1802) are displayed on the display device with a second luminance that is visually brighter than the first luminance (eg, by an electronic device) (eg, 630 of 18B and 18C). In some embodiments, reducing the frame rate increases the brightness of the representation displayed on the display (eg, 630 of 18B and 18C).
メディアキャプチャユーザインタフェース(例えば、608)を表示している間に、電子デバイス(例えば、600)は、カメラを介して、1つ以上のカメラの視野(例えば、18B及び18Cの630)内の変化(例えば、移動を表す変化)を検出する(1910)。 While displaying the media capture user interface (eg, 608), the electronic device (eg, 600) changes within the field of view of one or more cameras (eg, 630 of 18B and 18C) via the camera. (For example, a change representing movement) is detected (1910).
いくつかの実施形態では、検出された変化は、検出された移動(例えば、電子デバイスの移動、視野内のコンテンツの変化率)を含む。いくつかの実施形態では、第2のフレームレートは、検出された移動の量に基づく。いくつかの実施形態では、第2のフレームレートは、移動が増加するにつれて増加する(例えば、18B及び18Cの630)。 In some embodiments, the detected changes include detected movements (eg, movement of electronic devices, rate of change of content in the field of view). In some embodiments, the second frame rate is based on the amount of movement detected. In some embodiments, the second frame rate increases with increasing movement (eg, 630 of 18B and 18C).
1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているという判定に従って(1912)、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(例えば、移動速さ閾値、移動量閾値など)を満たすという判定に従って、電子デバイス(例えば、600)は、第1のフレームレートで1つ以上のカメラの視野(例えば、18Cの630)内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1914)。1つ以上のカメラの視野内の検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フレームレート基準は、電子デバイスが動いていると判定されると満たされる基準を含む(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)。いくつかの実施形態では、フレームレート基準は、電子デバイス(例えば、600)が動いていないと判定されると満たされる基準を含む(例えば、18B及び18Cの630)(例えば、実質的に静止(例えば、デバイスの移動は、所定の閾値(例えば、所定の閾値は、位置変位、速さ、速度、加速度、又はこれらのいずれかの組み合わせに基づく)以上又は等しい))。 A set of criteria that responds to the detection of changes in the field of view of one or more cameras and manages whether the field of view representation is updated with a variable or static frame rate (eg, a variable frame rate). ) Is satisfied (1912), and the detected changes in the field of view of one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) are the movement criteria (eg,). The electronic device (eg, 600) was detected within the field of view of one or more cameras (eg, 630 at 18C) at the first frame rate according to the determination that the movement speed threshold, movement amount threshold, etc. are satisfied. Based on the change, the field of view representation of one or more cameras (eg, 630) is updated (1914). One or more cameras based on the changes detected in the field of view of one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of one or more cameras meet the movement criteria. By updating the representation of the field of view, the electronic device operates when a set of conditions is met without the need for further user input, which enhances the operability of the device and allows the user-. Make the device interface more efficient (for example, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition, the user makes the device more efficient. Allowing for quick and efficient use reduces device power usage and improves battery life. In some embodiments, the frame rate reference includes criteria that are met when the electronic device is determined to be moving (eg, a given threshold is position displacement, speed, velocity, acceleration, or any of these). Based on the combination of In some embodiments, the frame rate criteria include criteria that are met when it is determined that the electronic device (eg, 600) is not moving (eg, 630 of 18B and 18C) (eg, substantially stationary (eg, substantially stationary). For example, device movement is greater than or equal to a predetermined threshold (eg, a predetermined threshold is based on position displacement, speed, velocity, acceleration, or a combination of any of these).
1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準(例えば、視野の表現が可変又は静的フレームレートで更新されているかどうかを管理する1組の基準)が満たされているという判定(1912)に従って、1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、電子デバイス(例えば、600)は、第1のフレームレートより低い第2のフレームレート(例えば、フレームレート、及び画像データが第1の露出時間よりも長い第2の露出時間を使用してキャプチャされる場所)(例えば、18A及び18Bの630)で1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現(例えば、630)を更新する(1916)。1つ以上のカメラの視野内の検出された変化が移動基準を満たさないという判定に従って、第2のフレームレートで1つ以上のカメラの視野内で検出された変化に基づいて、1つ以上のカメラの視野の表現を更新することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 A set of criteria that responds to the detection of changes in the field of view of one or more cameras and manages whether the field of view representation is updated at a variable or static frame rate. ) Is satisfied (1912), and according to the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria, the electronic device (eg, 600) has a first frame rate. 1 at a lower second frame rate (eg, where the frame rate and where the image data is captured using a second exposure time longer than the first exposure time) (eg 630 of 18A and 18B) The representation of the field of view of one or more cameras (eg, 630) is updated (1916) based on the changes detected within the field of view of the one or more cameras. One or more based on the changes detected in the field of view of one or more cameras at the second frame rate according to the determination that the detected changes in the field of view of one or more cameras do not meet the movement criteria. By updating the representation of the camera's field of view, the electronic device behaves when a set of conditions is met (or, on the other hand, is not) without the need for further user input. Increases device usability and makes the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error). In addition, by allowing the user to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved.
いくつかの実施形態では、可変フレームレート基準は、1つ以上のカメラの視野内の周辺光が閾値を下回ると満たされる基準(例えば、可変フレームレート基準は、周辺光が閾値を上回ると満たされない)を含み、1つ以上のカメラの視野内の変化を検出する前に、1つ以上のカメラの視野の表現が、第3のフレームレート(例えば、通常の照明条件でのフレームレート)(例えば、1888、1890、及び1892)で更新される(1918)。いくつかの実施形態では、1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされていないという判定に従って、電子デバイス(例えば、600)は、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持する(1920)(例えば、1つ以上のカメラの視野内で検出された変化が(例えば、判定することなく、又は判定を考慮することなく)移動基準を満たすかどうかに関係なく)(例えば、図8Aの630)。1つ以上のカメラの視野内の変化を検出したことに応答して、及び可変フレームレート基準が満たされていないという判定に従って、第3のフレームレートで1つ以上のカメラの視野の表現の更新を維持することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は他方では、満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光可変フレームレート基準は、フラッシュモードが非アクティブであることを満たす基準を含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)は、フラッシュ動作と互いに排他的である(例えば、フラッシュ動作が非アクティブのときにアクティブ又はフラッシュ動作がアクティブのときに非アクティブ)。いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに反対である。 In some embodiments, the variable frame rate reference is met when the ambient light in the field of view of one or more cameras is below the threshold (eg, the variable frame rate reference is not met when the ambient light is above the threshold). ) Is included, and the representation of the field of view of one or more cameras is a third frame rate (eg, frame rate under normal lighting conditions) (eg, before detecting changes in the field of view of one or more cameras). , 1888, 1890, and 1892) (1918). In some embodiments, the electronic device (eg, 600) is the first in response to detecting changes in the field of view of one or more cameras, and according to the determination that the variable frame rate criteria are not met. Maintaining an update of the field of view representation of one or more cameras at a frame rate of 3 (1920) (eg, changes detected within the field of view of one or more cameras (eg, without determination or determination). Whether or not the movement criteria are met (without consideration) (eg, 630 in FIG. 8A). Updating the field of view representation of one or more cameras at a third frame rate in response to detecting changes in the field of view of one or more cameras and according to the determination that the variable frame rate criteria are not met. By maintaining, the electronic device operates when a set of conditions is met (or, on the other hand, is not met) without the need for further user input, thereby allowing the device to operate. Is enhanced, making the user-device interface more efficient (eg, by assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), and in addition. By allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. In some embodiments, the low light variable frame rate reference includes a criterion that satisfies that the flash mode is inactive. In some embodiments, the low light condition indicator (eg, 602c) is mutually exclusive with the flash operation (eg, active when the flash action is inactive or inactive when the flash action is active). In some embodiments, the flash operating state and the low light capture mode state are opposite to each other.
いくつかの実施形態では、第2のフレームレートは、それぞれの閾値を下回る1つ以上のカメラの視野内の周辺光の量に基づく。いくつかの実施形態では、周辺は、1つ以上のカメラ又は検出された周辺光センサによって検出することができる。いくつかの実施形態では、フレームは、周辺光が減少するにつれて減少する。 In some embodiments, the second frame rate is based on the amount of peripheral light in the field of view of one or more cameras below each threshold. In some embodiments, the periphery can be detected by one or more cameras or detected ambient light sensors. In some embodiments, the frame is reduced as the ambient light is reduced.
いくつかの実施形態では、移動基準は、1つ以上のカメラの視野(field-of-field)内で検出された変化が移動閾値(例えば、閾値移動速度)よりも大きい電子デバイス(例えば、600)の移動に対応する(例えば、移動による視野内のコンテンツの変化率に対応する)と満たされる基準を含む。 In some embodiments, the movement reference is an electronic device (eg, 600) in which changes detected within the field-of-field of one or more cameras are greater than the movement threshold (eg, threshold movement speed). ) Corresponds to the movement (eg, corresponds to the rate of change of the content in the field of view due to the movement) and includes criteria that are satisfied.
方法1900に関して上述された処理(例えば、図19A〜図19B)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、2000、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法1900を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。
It should be noted that the details of the processes described above for Method 1900 (eg, FIGS. 19A-19B) are also applicable to the methods described above and below in a similar manner. For example,
図20A〜図20Cは、いくつかの実施形態による電子デバイスを使用して照明条件に対応するための方法を示すフロー図である。方法2000は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を備えるデバイス(例えば、100、300、500、600)で行われる。方法2000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
20A-20C are flow diagrams illustrating methods for addressing lighting conditions using electronic devices according to some embodiments.
後述するように、方法2000は、照明条件に対応するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に照明条件に対応することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As will be described later,
電子デバイス(例えば、600)は、カメラユーザインタフェースを表示する要求(例えば、カメラアプリケーションを表示する要求又はカメラアプリケーション内でメディアキャプチャモードに切り替える要求)を受信する(2002)。 The electronic device (eg, 600) receives a request to display the camera user interface (eg, a request to display the camera application or a request to switch to media capture mode within the camera application) (2002).
カメラユーザインタフェースを表示する要求を受信したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2004)。 In response to receiving a request to display the camera user interface, the electronic device (eg, 600) displays the camera user interface via the display device (2004).
カメラユーザインタフェースを表示すること(2004)は、電子デバイス(例えば、600)が、表示デバイス(例えば、602)を介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2006)を含む。 Displaying a camera user interface (2004) means that an electronic device (eg, 600) has an open observable area visible to one or more cameras (eg, cameras) via a display device (eg, 602). Displaying a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera), the horizontal (or vertical or diagonal) length of the image at a given distance from the camera lens. (2006) is included.
カメラユーザインタフェースを表示すること(2004)は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値(例えば、20ルクス)を下回る(例えば、又は、代替的に、値のそれぞれの範囲の間)と満たされる条件を含む低光条件が満たされたという判定に従って、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、630)と同時に、メディアをキャプチャする要求に応答してメディア(例えば、画像、ビデオ)をキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)(例えば、キャプチャ持続時間調整コントロール)を表示すること(2008)を含む。1つ以上のカメラの視野の表現と同時に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、視野の表現を閲覧している間に、キャプチャ持続時間を迅速かつ容易に調整することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。いくつかの実施形態では、周辺光は、1つ以上のカメラ又は専用の周辺光センサを介して、周辺光を検出することによって、判定した。 Displaying the camera user interface (2004) means that the ambient light in the field of view of one or more cameras is below their respective thresholds (eg, 20 lux) (eg, or alternative, in their respective ranges of values. A request for an electronic device (eg, 600) to capture media at the same time as a representation of the field of view of one or more cameras (eg, 630), according to the determination that a low light condition is met, including a condition that is met. Includes displaying a control (eg, 1804) (eg, slider) (eg, capture duration adjustment control) that adjusts the capture duration to capture media (eg, image, video) in response to (2008). .. By displaying a control that adjusts the capture duration to capture the media at the same time as the representation of the field of view of one or more cameras, the user can quickly and easily capture the duration while viewing the representation of the field of view. Allows you to adjust to. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control. In some embodiments, the ambient light was determined by detecting the ambient light via one or more cameras or a dedicated ambient light sensor.
カメラユーザインタフェースを表示すること(2004)は、低光条件が満たされていないという判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示するのをやめること(2010)を含む。低光条件が満たされていないという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を行い、低光条件が満たされたという判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Displaying the camera user interface (2004) causes an electronic device (eg, 600) to display a control (eg, 1804) that adjusts the capture duration according to the determination that the low light condition is not met. Includes quitting (2010). By stopping displaying the control that adjusts the capture duration according to the determination that the low light condition is not met, the electronic device fulfilled a set of conditions without requiring further user input ( By performing an operation when (or not met) and displaying a low light capture status indicator at the same time as a control that adjusts the capture duration according to the determination that the low light condition is met, the electronic device is further enhanced. It operates when a set of conditions is met without requiring user input, which enhances the usability of the device and makes the user-device interface (eg, when operating / interacting with the device). By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device more efficiently, the power usage of the device It is suppressed and the battery life is improved.
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光条件(例えば、周辺光の減少又は周辺光の増加)がもはや満たされていないというインジケーションを取得する(例えば、受信する、判定する、得る)(2012)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が発生する)。いくつかの実施形態では、インジケーションを取得したことに応答して、電子デバイス(例えば、600)は、表示デバイスを介して、キャプチャ持続時間を調整するコントロールの表示を停止する(2014)。低光条件がもはや満たされていないというインジケーションを取得したことに応答して、キャプチャ持続時間を調整するコントロールの表示を(例えば、自動的に、ユーザ入力なしで)停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされた(又は満たされなかった)ときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされ続けるという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)の表示を維持する。 In some embodiments, while displaying a control (eg, slider) that adjusts the capture duration, the electronic device (eg, 600) is in low light conditions (eg, ambient light reduction or ambient light reduction). Acquire an indication that the increase) is no longer satisfied (eg, receive, determine, obtain) (2012) (eg, at another time, another determination of whether the low light condition is met. appear). In some embodiments, in response to the acquisition of the indication, the electronic device (eg, 600) stops displaying the control that adjusts the capture duration via the display device (2014). Electronic devices by stopping the display of controls that adjust the capture duration (eg, automatically, without user input) in response to getting an interface that the low light conditions are no longer met. Acts when a set of conditions is met (or not met) without the need for further user input, which enhances the usability of the device and provides a user-device interface (eg, for example). (By assisting the user in providing proper input when manipulating / interacting with the device and reducing user error), in addition, the user makes the device faster and more efficient. By making it available, the device's power usage is reduced and battery life is improved. In some embodiments, the electronic device (eg, 600) adjusts the capture duration to capture the media in response to a request to capture the media (eg, 600) according to the determination that the low light condition continues to be met. , 1804) is maintained.
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を同時に表示することなく、1つ以上のカメラの視野の表現(例えば、630)を表示している間に、電子デバイス(例えば、600)は、低光条件が満たされたというインジケーションを取得する(例えば、受信する、判定する、検出する、得る)(2030)(例えば、別の時点で、低光条件が満たされているかどうかの別の判定が発生する)。いくつかの実施形態では、インジケーションを取得したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示する(2032)。低光条件が満たされたというインジケーションを取得したことに応答して、1つ以上のカメラの視野の表現と同時に、キャプチャ持続時間を調整するコントロールを表示することによって、ユーザに、コントロールが必要そうなときにキャプチャ持続時間を調整するコントロールへの迅速かつ便利なアクセスを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光条件が満たされていないという判定に従って、電子デバイス(例えば、600)は、メディアをキャプチャする要求に応答して、メディアをキャプチャするキャプチャ持続時間を調整するコントロールの表示をやめることを維持する。 In some embodiments, an electronic device is displayed while displaying a representation of the field of view of one or more cameras (eg, 630) without simultaneously displaying controls that adjust the capture duration (eg, 1804). (For example, 600) acquires an indication that the low light condition is met (eg, receives, determines, detects, obtains) (2030) (eg, at another time, the low light condition is met). Another determination of whether or not it has been done occurs). In some embodiments, in response to acquiring an indication, an electronic device (eg, 600) controls the capture duration (eg, 1804) as well as representing the field of view of one or more cameras. ) Is displayed (2032). The user needs control by displaying a control that adjusts the capture duration at the same time as representing the field of view of one or more cameras in response to obtaining the indication that the low light condition has been met. It provides quick and convenient access to controls that adjust the capture duration at such times. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, according to the determination that the low light condition is not met, the electronic device (eg, 600) is a control that adjusts the capture duration to capture the media in response to a request to capture the media. Keep off the display.
いくつかの実施形態では、低光条件は、フラッシュモードが非アクティブであると満たされる条件を含む(例えば、フラッシュ設定がオフに設定される、フラッシュ動作の状態が非アクティブである)。 In some embodiments, the low light condition includes a condition that the flash mode is satisfied as inactive (eg, the flash setting is set to off, the flash operating state is inactive).
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、スライダである。いくつかの実施形態では、スライダは、ティックマークを含み、各ティックマーク(例えば、間隔で表示される)は、キャプチャ持続時間を表す。 In some embodiments, the control that adjusts the capture duration (eg, 1804) is a slider. In some embodiments, the slider includes tick marks, and each tick mark (eg, displayed at intervals) represents the capture duration.
いくつかの実施形態では、カメラユーザインタフェースを表示することは、電子デバイス(例えば、600)が、1つ以上のカメラの視野の表現(例えば、1802)と同時に、選択されると、1つ以上のカメラ(例えば、シャッターアフォーダンス;シャッターボタン)を使用してメディアのキャプチャを開始するメディアキャプチャアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(2016)ことを更に含む。 In some embodiments, displaying the camera user interface is such that one or more electronic devices (eg, 600) are selected at the same time as a representation of the field of view of one or more cameras (eg, 1802). It further includes displaying (2016) a media capture affordance (eg, 610) (eg, a selectable user interface object) that initiates a media capture using a camera (eg, shutter affordance; shutter button).
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーション(例えば、数値、スライダトラック上のスライダノブ(例えば、バー))を表示する(2018)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。キャプチャ持続時間を調整するコントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することにより、表示表現の設定されたキャプチャ持続時間の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)から第2のキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)にキャプチャ持続時間を調整するコントロール(例えば、1804)を調整する要求(例えば、調整可能なコントロール上のスライダコントロールを調整可能なコントロール上のインジケーション(例えば、値)までドラッグすること)を受信したことに応答して、電子デバイス(例えば、600)は、第1のキャプチャ持続時間の第1のインジケーションの表示を、第2のキャプチャ持続時間の第2のインジケーションの表示に置き換える(2020)。いくつかの実施形態では、キャプチャ持続時間は、設定時に表示される。いくつかの実施形態では、キャプチャ持続時間は、表示されない。いくつかの実施形態では、持続時間は、調整可能なコントロールを介して設定された値と同じである。いくつかの実施形態では、持続時間は、調整可能な入力コントロールを介して設定された値とは異なる(例えば、値は1秒であるが、持続時間は0.9秒である;値は1秒であるが、持続時間は、8枚のピクチャである)。これらの実施形態のうちのいくつかでは、持続時間に対する値の対応(例えば、平行移動)は、電子デバイス(例えば、600)及び/若しくはカメラのタイプ、又は電子デバイス若しくはカメラの実行中のソフトウェアのタイプに基づく。 In some embodiments, while displaying a control (eg, 1804) that adjusts the capture duration, the electronic device (eg, 600) has a first indication of the first capture duration (eg, 1804). , Numerical values, slider knobs (eg bars) on slider tracks) (2018) (eg time (eg total capture time, exposure time), measured by number of pictures / frames). Providing the user with visual feedback of the set capture duration of the display representation by displaying the first indication of the first capture duration while displaying the control that adjusts the capture duration. do. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, the first capture duration (eg, measured by time (eg, total capture time, exposure time), number of pictures / frames) to the second capture duration (eg, time (eg, eg, time)). A request to adjust a control (eg 1804) that adjusts the capture duration to (total capture time, exposure time), measured by the number of pictures / frames) (eg, a slider control on an adjustable control on an adjustable control) In response to receiving the indication (eg, dragging to a value) of, the electronic device (eg, 600) displays the first indication of the first capture duration, the second. Replace with a second indication of capture duration (2020). In some embodiments, the capture duration is displayed at setup time. In some embodiments, the capture duration is not displayed. In some embodiments, the duration is the same as the value set via the adjustable control. In some embodiments, the duration differs from the value set via the adjustable input control (eg, the value is 1 second, but the duration is 0.9 seconds; the value is 1). Seconds, but duration is 8 pictures). In some of these embodiments, the correspondence of values to duration (eg, translation) is the type of electronic device (eg, 600) and / or camera, or the running software of the electronic device or camera. Based on type.
いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、630)は、第1の表現である(2022)。いくつかの実施形態では、更に第1のキャプチャ持続時間からキャプチャ持続時間を調整するコントロールを調整する要求を受信したことに応答して(2024)、電子デバイス(例えば、600)は、第1の表現の表示を、1つ以上のカメラの視野のその(the of)第2の表現に置き換え、第2の表現が、第2の持続時間に基づき、第1の表現と視覚的に区別される(例えば、より明るい)(2026)。いくつかの実施形態では、第4の表現の輝度は、第5の表現の輝度とは異なる(2028)。 In some embodiments, the representation of the field of view of one or more cameras (eg, 630) is the first representation (2022). In some embodiments, in response to receiving a request to further adjust the control that adjusts the capture duration from the first capture duration (2024), the electronic device (eg, 600) is the first. Replacing the representation of the representation with its second representation of the field of view of one or more cameras, the second representation is visually distinguished from the first representation based on the second duration. (For example, brighter) (2026). In some embodiments, the luminance of the fourth representation is different from the luminance of the fifth representation (2028).
いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンスの選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、及び第2のキャプチャ持続時間が光キャプチャモードを非アクティブ化する所定の持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))に対応するという判定に従って、電子デバイス(例えば、600)は、持続時間(例えば、第2のキャプチャ持続時間とは異なる通常持続時間(例えば、電子デバイス上で静止写真をキャプチャするための持続時間に等しい))に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。メディアをキャプチャする要求を受信したことに応答して、及び第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定の持続時間に対応するという判定に従って、(例えば、第2のキャプチャ持続時間とは異なる)持続時間に基づいて、メディアのキャプチャを開始することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) receives a request to capture the media while displaying the second indication of the second capture duration. In some embodiments, receiving a request to capture media corresponds to a choice of media capture affordance (eg, tap). In some embodiments, a predetermined duration (eg, a duration less than or equal to zero) that in response to receiving a request to capture the media and a second capture duration deactivates the optical capture mode. For example, according to the determination that it corresponds to the duration corresponding to the duration of operating the device under standard conditions or other conditions), the electronic device (eg, 600) has a duration (eg, a second capture duration). Initiates media capture through one or more cameras based on a different normal duration (eg, equal to the duration for capturing a still photo on an electronic device). In response to receiving a request to capture the media, and according to the determination that the second capture duration corresponds to a predetermined duration that deactivates the low light capture mode (eg, the second capture duration). By initiating a media capture based on a duration (different from time), the electronic device behaves when a set of conditions is met without the need for further user input, thereby. Increased device usability and more efficient user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error) In addition, by allowing the user to use the device more quickly and efficiently, the power usage of the device is reduced and the battery life is improved.
いくつかの実施形態では、第2のキャプチャ持続時間の第2のインジケーションを表示している間に、電子デバイス(例えば、600)は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信することは、メディアキャプチャアフォーダンス(例えば、610)の選択に対応する(例えば、タップ)。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、(及び、いくつかの実施形態では、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のものに対応しないという判定に従って、)電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、1つ以上のカメラを介して、メディアのキャプチャを開始する。いくつかの実施形態では、メディアキャプチャユーザインタフェース(例えば、608)は、メディアがキャプチャされた後のメディアの表現を含む。 In some embodiments, the electronic device (eg, 600) receives a request to capture the media while displaying the second indication of the second capture duration. In some embodiments, receiving a request to capture media corresponds to a selection of media capture affordances (eg, 610) (eg, tap). In some embodiments, in response to receiving a request to capture the media (and in some embodiments, a predetermined capture duration deactivates the low light capture mode. According to the determination that it does not correspond to), the electronic device (eg, 600) initiates the capture of the media through one or more cameras based on the second capture duration. In some embodiments, the media capture user interface (eg, 608) includes a representation of the media after it has been captured.
いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、1つ以上のカメラの視野の表現(例えば、630)の表示を停止する。いくつかの実施形態では、表現(例えば、630)(例えば、ライブプレビュー)は、低光条件が満たされているときにメディアをキャプチャする間にまったく表示されない。いくつかの実施形態では、表現(例えば、630)は、低光条件が満たされているときにメディアをキャプチャする間に所定の期間にわたって表示されない。低光条件が満たされているときにメディアをキャプチャする間に表現をまったく表示しないこと、又は低光条件が満たされているときにメディアをキャプチャする間に所定の期間にわたって表現を表示しないことは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) stops displaying a representation of the field of view of one or more cameras (eg, 630) in response to receiving a request to further capture the media. .. In some embodiments, the representation (eg, 630) (eg, live preview) is completely invisible while capturing the media when low light conditions are met. In some embodiments, the representation (eg, 630) is not displayed for a predetermined period of time while capturing the media when low light conditions are met. Not displaying any representation while capturing media when low light conditions are met, or not displaying representations for a given period of time while capturing media when low light conditions are met By allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved.
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の色(例えば、黒)で表示される。いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第1の色とは異なる第2の色(例えば、赤)でキャプチャ持続時間を調整するコントロール(例えば、1804)を表示する。 In some embodiments, the control that adjusts the capture duration (eg, 1804) is displayed in a first color (eg, black). In some embodiments, in response to further receiving a request to capture the media, the electronic device (eg, 600) continues to capture in a second color (eg, red) that is different from the first color. Display a control that adjusts the time (eg, 1804).
いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第3のキャプチャ値(例えば、所定の開始値又は巻き出し値(例えば、ゼロ))の第3のインジケーションを、第2のキャプチャ持続時間の第2のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする(例えば、ゼロから値への巻き取り))、第1のアニメーション(例えば、エッグタイマーの巻き取り及び設定)を表示する。第1のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のアニメーションを表示した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間の第2のインジケーションを、第3のキャプチャ値の第3のインジケーションまで動かす(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))、第2のアニメーション(例えば、エッグタイマーのカウントダウン)を表示し、第2のアニメーションの持続時間は、第2のキャプチャ持続時間の持続時間に対応し、第1のアニメーションの持続時間とは異なる。第2のアニメーションを表示することにより、設定されたキャプチャ値における変化(単数又は複数)の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、第1のアニメーションと第2のアニメーションとの間にポーズがある。いくつかの実施形態では、第1及び第2のアニメーションのうちの少なくとも1つは、巻き取り又は巻き出しするエッグタイムの音を有する。いくつかの実施形態では、第2のアニメーションは、第1のアニメーションよりも遅い。 In some embodiments, in response to receiving a request to further capture the media, the electronic device (eg, 600) has a third capture value (eg, a predetermined start value or unwind value (eg, eg)). Move the third indication of (zero)) to the second indication of the second capture duration (eg, slide the indication (eg, slider bar) across the slider (eg, zero-to-value winding). (Capture)), display the first animation (eg, winding and setting of the egg timer). By displaying the first animation, the user is provided with visual feedback of the change (s) at the set capture value. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, after displaying the first animation, the electronic device (eg, 600) has a second indication of the second capture duration and a third indication of the third capture value. Move to (eg, slide an indication (eg, slider bar) across a slider) (eg, unwind (eg, count down from value to zero)), show a second animation (eg, egg timer countdown) However, the duration of the second animation corresponds to the duration of the second capture duration and is different from the duration of the first animation. By displaying a second animation, the user is provided with visual feedback of the change (s) at the set capture value. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. In some embodiments, there is a pose between the first animation and the second animation. In some embodiments, at least one of the first and second animations has an egg-time sound that winds up or unwinds. In some embodiments, the second animation is slower than the first animation.
いくつかの実施形態では、第1のアニメーションを表示している間に、電子デバイス(例えば、600)は、第1の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第2のアニメーションを表示している間に、電子デバイス(例えば、600)は、第2の触知出力(例えば、触覚(例えば、振動)出力)を提供する。いくつかの実施形態では、第1の触知出力は、第2の触知出力とは異なるタイプの触知出力であり得る。第1のアニメーションを表示している間に、第1の触知出力を提供すること、及び第2のアニメーションを表示している間に、第2の触知出力を提供することにより、設定されたキャプチャ値における変化(単数又は複数)の更なるフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) provides a first tactile output (eg, tactile (eg, vibration) output) while displaying the first animation. In some embodiments, the electronic device (eg, 600) provides a second tactile output (eg, tactile (eg, vibration) output) while displaying the second animation. In some embodiments, the first tactile output can be a different type of tactile output than the second tactile output. Set by providing a first tactile output while displaying the first animation and by providing a second tactile output while displaying the second animation. Provide users with further feedback on changes (s) in the captured values. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do.
いくつかの実施形態では、メディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいてメディアをキャプチャする。 In some embodiments, after initiating the capture of the media, the electronic device (eg, 600) captures the media based on the second capture duration.
いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディア(例えば、メディアをキャプチャする間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第2のメディアのキャプチャを開始した後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間が経過する前に、第2のメディアのキャプチャを終了する要求を受信する。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて、第2のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のメディアのキャプチャを終了する要求を受信したことに応答して、電子デバイス(例えば、600)は、終了前にキャプチャされた第2のメディアの表現を表示し、第2のメディアのキャプチャを終了する要求を受信する前に、1つ以上のカメラによってキャプチャされた視覚情報に基づく。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第2のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第2のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) captures the second media (eg, while capturing the media) based on the second capture duration. Receives a request to capture a second selection (eg, tap) of the second affordance requesting to capture. In some embodiments, the electronic device (eg, 600) is based on the second capture duration in response to receiving a request to capture the second media based on the second capture duration. And start capturing the second media. In some embodiments, after initiating the capture of the second media based on the second capture duration, the electronic device (eg, 600) has a second capture duration before the second capture duration elapses. Receives a request to end the capture of the media. In some embodiments, in response to receiving a request to end the capture of the second media, the electronic device (eg, 600) is of the second media based on the duration of the second capture. End the capture (eg stop, stop). In some embodiments, in response to receiving a request to end the capture of the second media, the electronic device (eg, 600) displays a representation of the second media captured prior to the end. , Based on visual information captured by one or more cameras before receiving a request to end the capture of the second media. In some embodiments, if the capture of the second media item ends before the second capture duration elapses, less visual information is captured than what was captured, producing a clear image. The second media is darker or has less contrast than the first media item to result in reduced capacity.
いくつかの実施形態では、メディアは、第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアである。いくつかの実施形態では、第1のメディアをキャプチャした後に、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディア(例えば、メディアをキャプチャする間の、メディアをキャプチャするように要求する第2のアフォーダンスの第2の選択(例えば、タップ))をキャプチャする要求を受信する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始する。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を超えない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を超えるという判定に従って、電子デバイス(例えば、600)は、第3のメディアのキャプチャを終了する(例えば、止める、停止する)。いくつかの実施形態では、第2のキャプチャ持続時間に基づいて第3のメディアのキャプチャを開始した後に、1つ以上のカメラ(例えば、電子デバイスのハウジング内に組み込まれた1つ以上のカメラ)の視野内の検出された変化が移動基準(いくつかの実施形態では、ユーザがキャプチャする間に閾値を上回ってデバイスを動かしている;いくつかの実施形態では、移動が移動基準を超えない場合、電子デバイスは、中断なしでメディアをキャプチャし続ける)を超えるという判定に従って、電子デバイス(例えば、600)は、終了前にキャプチャされた第3のメディアの表現を表示し、第2のメディアのキャプチャを終了する要求を受信する前に、1つ以上のカメラによってキャプチャされた視覚情報に基づく。いくつかの実施形態では、第2のキャプチャ持続時間が経過する前に、第3のメディアアイテムのキャプチャが終了した場合、キャプチャされたものよりも少ない視覚情報がキャプチャされ、クリアな画像を生成する能力の低減をもたらすため、第3のメディアは、より暗いか、又は第1のメディアアイテムよりもコントラストが小さい。 In some embodiments, the media is the first media captured based on the second capture duration. In some embodiments, after capturing the first media, the electronic device (eg, 600) uses the third media (eg, while capturing the media) based on the second capture duration. Receives a request to capture a second selection (eg, tap) of a second affordance requesting to capture. In some embodiments, the electronic device (eg, 600) is based on the second capture duration in response to receiving a request to capture the third medium based on the second capture duration. And start capturing the third media. In some embodiments, one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) after initiating the capture of the third media based on the second capture duration. The detected change in the field of view is moving the device above the threshold while the user is capturing; in some embodiments, if the movement does not exceed the movement criterion. The electronic device (eg, 600) terminates the capture of the third media (eg, stops, stops) according to the determination that the electronic device continues to capture the media without interruption. In some embodiments, one or more cameras (eg, one or more cameras embedded within the housing of the electronic device) after initiating the capture of the third media based on the second capture duration. The detected change in the field of view is moving the device above the threshold while the user is capturing; in some embodiments, if the movement does not exceed the movement criterion. The electronic device (eg, 600) displays a representation of the third media captured prior to the end, according to the determination that the electronic device continues to capture the media without interruption) of the second media. Based on visual information captured by one or more cameras before receiving a request to end the capture. In some embodiments, if the capture of the third media item ends before the second capture duration elapses, less visual information is captured than what was captured, producing a clear image. The third media is darker or has less contrast than the first media item to result in reduced capacity.
いくつかの実施形態では、更にメディアをキャプチャする要求を受信したことに応答して、電子デバイス(例えば、600)は、メディアをキャプチャするように要求するアフォーダンス(例えば、610)の表示を、メディア(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))のキャプチャを終了するアフォーダンス(例えば、図18Kの610)の表示に置き換える。メディアをキャプチャする要求を受信したことに応答して、メディアをキャプチャするように要求するアフォーダンスの表示を、メディアのキャプチャを終了するアフォーダンスの表示に置き換えることは、ユーザが、このようなアフォーダンスが必要とされる可能性があるときに、メディアのキャプチャを終了するアフォーダンスに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンス(例えば、1806)がカメラ持続時間に基づいて、時間中に表示された後、電子デバイス(例えば、600)は、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンス(例えば、610)に置き換える。 In some embodiments, in response to further receiving a request to capture the media, the electronic device (eg, 600) displays an affordance (eg, 610) requesting that the media be captured. Replace the capture of (eg, stop affordance (eg, selectable user interface object)) with the display of the affordance (eg, 610 in FIG. 18K) that ends the capture. Replacing the affordance display requesting to capture media in response to receiving a request to capture media with an affordance display that ends the media capture requires the user to have such an affordance. Allows for quick and easy access to affordances that end media captures when they are likely to be. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the stop affordance is displayed in time based on the camera duration. In some embodiments, after the stop affordance (eg, 1806) is displayed during the time based on the camera duration, the electronic device (eg, 600) displays the stop affordance when the camera duration expires. Is replaced with an affordance (eg, 610) for the request to capture the media.
いくつかの実施形態では、メディアのキャプチャを開始した後に(例えば、メディアのキャプチャを要求するアフォーダンスを押下後に)、電子デバイス(例えば、600)は、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始2秒後))でキャプチャされた第1のメディアの第1の表現を表示する。いくつかの実施形態では、第1のメディアの第1の表現を表示した後に、電子デバイス(例えば、600)は、第1のメディアの第1の表現の表示を、第1のキャプチャ時間(例えば、キャプチャの時点(例えば、メディアのキャプチャの開始後3秒))の後の第2のキャプチャ時間でキャプチャされた第1のメディアの第2の表現の表示に置き換え、第2の表現は、第1の表現と視覚的に区別される(例えば、より明るい)(例えば、より多くの画像データが取得され、かつ合成画像を生成するために使用されるため、ますます明るい輪郭のはっきりした.合成画像を表示する)。 In some embodiments, after starting the capture of the media (eg, after pressing the afford to request the capture of the media), the electronic device (eg, 600) has a first capture time (eg, at the time of capture (eg, at the time of capture). For example, 2 seconds after the start of media capture))), the first representation of the first media captured is displayed. In some embodiments, after displaying the first representation of the first media, the electronic device (eg, 600) displays the first representation of the first media for a first capture time (eg, 600). , Replaced with the display of the second representation of the first media captured at the second capture time after the time of capture (eg, 3 seconds after the start of media capture), the second representation is the second. Visually distinguishable from the representation of 1 (eg, brighter) (eg, more image data is acquired and used to generate a composite image, so it is brighter and more contoured. Display image).
いくつかの実施形態では、第1の表現の表示を第2の表現の表示に置き換えることは、所定の期間後に行われる。いくつかの実施形態では、置き換え(例えば、光沢)は、等間隔で(例えば、滑らかな光沢ではない)で行われる。 In some embodiments, replacing the display of the first expression with the display of the second expression takes place after a predetermined period of time. In some embodiments, the replacement (eg, gloss) is performed at equal intervals (eg, not smooth gloss).
いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたという判定に従って、電子デバイス(例えば、600)が、キャプチャ持続時間を調整するコントロール(例えば、1804)と同時に、低光キャプチャモードの状態(例えば、602c)がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含む。低光条件が満たされたという判定に従って、キャプチャ持続時間を調整するコントロールと同時に、低光キャプチャ状態インジケータを表示することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータを表示している間に、電子デバイス(例えば、600)は、低光状態インジケータ(例えば、602c)の第1の選択(例えば、タップ)を受信する。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの表示を維持している間に、キャプチャ持続時間を調整するコントロール(例えば、1804)の表示を停止する。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータの外観を更新する。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)は、キャプチャ持続時間を調整するコントロールの表示を停止すると(例えば、低光条件が満たされている間)、維持される。 In some embodiments, displaying the camera user interface (eg, 608) is a control (eg, 600) in which the electronic device (eg, 600) adjusts the capture duration according to the determination that the low light condition is met. , 1804), including displaying a low light capture state indicator indicating that the low light capture mode state (eg, 602c) is active. By displaying a low light capture status indicator at the same time as a control that adjusts the capture duration according to the determination that the low light condition has been met, the electronic device can have a set of conditions without further user input. It acts when satisfied, which enhances the usability of the device and assists the user in providing the user-device interface (eg, when manipulating / interacting with the device to provide appropriate input). By making the device more efficient (by reducing user error) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, while displaying the low light capture state indicator, the electronic device (eg, 600) receives a first selection (eg, tap) of the low light state indicator (eg, 602c). do. In some embodiments, the electronic device (eg, 600) maintains the display of the low light capture status indicator in response to receiving the first selection of the low light condition indicator (eg, 602c). While in the meantime, stop displaying the control (eg, 1804) that adjusts the capture duration. In some embodiments, in response to receiving the first selection of the low light condition indicator (eg, 602c), the electronic device (eg, 600) is inactive in the low light capture mode state. Update the appearance of the low light capture status indicator to indicate that. In some embodiments, the low light capture status indicator (eg, 602c) is maintained when the display of the control that adjusts the capture duration is stopped (eg, while the low light condition is met).
いくつかの実施形態では、カメラユーザインタフェース(例えば、608)を表示することは、低光条件が満たされたという判定に従って、低光キャプチャモードが非アクティブであることを示す低光キャプチャ状態を表示している間に、電子デバイス(例えば、600)が、低光状態インジケータ(例えば、602c)の第2の選択(例えば、タップ)を受信することを含む。いくつかの実施形態では、低光状態インジケータ(例えば、602c)の第2の選択を受信したことに応答して、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)を再表示する。いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)が再表示されると、以前のキャプチャ値のインジケーションをコントロール上に表示する(例えば、コントロールは、以前に設定された最後の値に設定されたままであり続ける)。 In some embodiments, displaying the camera user interface (eg, 608) displays a low light capture state indicating that the low light capture mode is inactive, depending on the determination that the low light condition has been met. While doing so, the electronic device (eg, 600) comprises receiving a second selection (eg, tap) of the low light condition indicator (eg, 602c). In some embodiments, in response to receiving a second selection of low light condition indicators (eg, 602c), the electronic device (eg, 600) adjusts the capture duration (eg, 1804). ) Is displayed again. In some embodiments, when the control that adjusts the capture duration (eg, 1804) is redisplayed, the indication of the previous capture value is displayed on the control (eg, the control was previously set). It remains set to the last value).
いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の第1の選択を受信したことに応答して、電子デバイス(例えば、600)は、フラッシュ動作を行わないように電子デバイスを構成する。いくつかの実施形態では、フラッシュ動作の非アクティブ状態を示すフラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作のアクティブ状態を示すフラッシュ状態の表示を置き換える。いくつかの実施形態では、メディアのキャプチャが開始されると、電子デバイス(例えば、600)は、フラッシュ動作を実行するように構成されておらず、フラッシュ動作は、メディアをキャプチャするときに発生しない(例えば、フラッシュがトリガされない)。 In some embodiments, in response to receiving the first selection of the low light capture state indicator (eg, 602c), the electronic device (eg, 600) does not flush the electronic device. Constitute. In some embodiments, the flash state indicator (eg, 602a) indicating the inactive state of the flash operation replaces the flash state display indicating the active state of the flash operation. In some embodiments, when the media capture is initiated, the electronic device (eg, 600) is not configured to perform a flash operation and the flash operation does not occur when capturing the media. (For example, the flash is not triggered).
いくつかの実施形態では、低光条件は、低光状態インジケータが選択されたと満たされる条件を含む。いくつかの実施形態では、キャプチャ持続時間を調整するコントロールが表示される前に、低光キャプチャ状態インジケータが選択される(例えば、電子デバイスが低光状態インジケータに向けられたジェスチャを検出する)。 In some embodiments, the low light condition includes a condition in which the low light condition indicator is selected and satisfied. In some embodiments, the low light capture status indicator is selected before the control that adjusts the capture duration is displayed (eg, the electronic device detects a gesture directed at the low light status indicator).
方法2000に関して上述された処理(例えば、図20A〜図20C)の詳細はまた、上記及び以下で説明される方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 2000 (eg, FIGS. 20A-20C) are also applicable in a similar manner to the methods described above and below. For example,
図21A〜図21Cは、いくつかの実施形態による電子デバイスを使用してカメラインジケーションを提供するための方法を示すフロー図である。方法2100は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))、及び任意選択的に、専用の周辺光センサを備えるデバイス(例えば、100、300、500、600)で行われる。方法2100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
21A-21C are flow diagrams illustrating methods for providing camera indications using electronic devices according to some embodiments.
後述するように、方法2100は、カメラインジケーションを提供するための直感的な仕方を提供する。この方法は、カメラインジケーションを閲覧する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にカメラインジケーションを閲覧することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、カメラユーザインタフェースを表示する(2102)。 The electronic device (eg, 600) displays the camera user interface via the display device (2102).
カメラユーザインタフェースを表示している間に、電子デバイス(例えば、600)は、電子デバイスの1つ以上のセンサ(例えば、1つ又は周辺光センサ、1つ以上のカメラ)を介して、1つ以上のカメラの視野内の光量(例えば、量の輝度(例えば、20ルクス、5ルクス))を検出する(2104)。 While displaying the camera user interface, the electronic device (eg, 600) is one via one or more sensors (eg, one or ambient light sensor, one or more cameras) of the electronic device. The amount of light in the field of view of the above camera (for example, the brightness of the amount (for example, 20 lux, 5 lux)) is detected (2104).
1つ以上のカメラの視野内の光量を検出したことに応答して(2106)、1つ以上のカメラの視野内の光量が、1つ以上のカメラの視野内の光量が所定の閾値(例えば、20ルクス未満)を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(いくつかの実施形態では、低光環境基準は、1つ以上のカメラの視野内の光量が所定の範囲(例えば、20〜0ルクス)内にあると満たされる基準を含む)内に、フラッシュ動作の状態(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がある操作性)(いくつかの実施形態では、フラッシュ動作の状態はフラッシュ設定(又はフラッシュモード)に基づく;これらの実施形態のうちのいくつかでは、フラッシュ動作の状態が自動又はオンに設定されているときに、光のフラッシュ(例えば、フラッシュ)は、ミーティングをキャプチャする際に発生する可能性がある;しかしながら、フラッシュ動作がオフに設定されているときに、光のフラッシュは、メディアをキャプチャする際に発生する可能性がない)を示すフラッシュ状態インジケータ(例えば、602a)(2110)(例えば、フラッシュモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))と、低光キャプチャモードの状態を示す低光キャプチャ状態インジケータ(例えば、低光モードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))(2112)と、を同時に表示する(2108)。1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、フラッシュ状態インジケータを表示することにより、検出された光量及び得られたフラッシュ設定についてのフィードバックをユーザに提供する。改善されたフィードバックを提供すれば、ユーザの活動競争への参加が増加し、デバイスの操作性が向上し、(例えば、ユーザが適切な入力を提供することを助け、デバイスとの動作/対話時にユーザの間違いを低減することによって)ユーザとデバイスのインタフェースがより効率的になり、これによって、ユーザがデバイスをより迅速かつ効率的に使用できるようになることにより、更に、電力使用が低減し、デバイスのバッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータは、電子デバイス(例えば、600)が、モード(例えば、低光環境モード)又はカメラユーザインタフェース(例えば、608)上で以前に選択可能でなかった(例えば、容易に利用できない(例えば、選択するための入力を2つ以上有する)又は表示されない)方法で、動作するオプションに対応する。いくつかの実施形態では、電子デバイス(例えば、600)は、別の画像で検出された光が所定の閾値を下回っても、低光インジケータが表示されると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持する。いくつかの実施形態では、電子デバイス(例えば、600)は、画像で検出された光が所定の閾値を下回ると、低光キャプチャ状態インジケータ(例えば、602c)の表示を維持しないか、又は低光インジケータの表示を停止する。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)又は低光キャプチャ状態インジケータ(例えば、602c)のうちの1つ以上は、そのそれぞれのモード(例えば、アクティブ(例えば、色(例えば、緑、黄色、青)として表示)又は非アクティブ(例えば、色(グレーアウト、赤、透明)として表示)の状態を示す。 In response to detecting the amount of light in the field of view of one or more cameras (2106), the amount of light in the field of view of one or more cameras is a predetermined threshold (eg, the amount of light in the field of view of one or more cameras). According to the determination that the low light environmental criteria are met, including criteria that are met below (20 lux), the electronic device (eg, 600) is a camera user interface (in some embodiments, the low light environmental criteria are When the state of flash operation (eg, when the flash captures media) within a predetermined range (eg, including criteria where the amount of light in the field of one or more cameras is satisfied to be within a predetermined range (eg, 20-0 lux)). Operability that may occur) (In some embodiments, the flash operating state is based on the flash setting (or flash mode); in some of these embodiments, the flash operating state is automatic or When set to on, a flash of light (eg, flash) can occur when capturing a meeting; however, when the flash operation is set to off, the flash of light is Flash status indicators (eg, 602a) (2110) (eg, flash mode affordance (eg, selectable user interface objects)) that indicate (which cannot occur when capturing media) and low light capture modes. A low light capture state indicator (eg, low light mode affordance (eg, selectable user interface object)) (2112) indicating the state is displayed simultaneously (2108). According to the determination that the amount of light in the field of view of one or more cameras meets the low light environmental standard, the flash status indicator is displayed to provide the user with feedback on the amount of light detected and the flash setting obtained. Providing improved feedback will increase user participation in competition and improve device usability (eg, help users provide proper input and interact with / interact with the device). By reducing user error, the interface between the user and the device becomes more efficient, which allows the user to use the device faster and more efficiently, further reducing power usage. Improves device battery life. In some embodiments, the low light capture status indicator was previously not selectable by the electronic device (eg 600) on the mode (eg low light environment mode) or camera user interface (eg 608). Corresponds to options that operate in ways that are not readily available (eg, have more than one input to select) or are not displayed. In some embodiments, the electronic device (eg, 600) has a low light capture state indicator (eg, eg, 600) when the low light indicator is displayed even though the light detected in another image is below a predetermined threshold. The display of 602c) is maintained. In some embodiments, the electronic device (eg, 600) does not maintain the display of the low light capture state indicator (eg, 602c) or low light when the light detected in the image falls below a predetermined threshold. Stop displaying the indicator. In some embodiments, one or more of the flash state indicators (eg, 602a) or low light capture state indicators (eg, 602c) are in their respective modes (eg, active (eg, color (eg, green)). , Yellow, blue) or inactive (eg, displayed as color (gray out, red, transparent)).
いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、メディアをキャプチャする間に、デバイスが光源(例えば、デバイスに含まれる光源)からの追加の光を使用する)の状態がアクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。フラッシュ動作の状態を示すフラッシュ状態インジケータは、アクティブであり、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作基準が満たされているという判定に従って、フラッシュ動作の現在の設定及び環境内の光量をユーザに知らせる。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たし、かつフラッシュ動作がアクティブ又は非アクティブに設定されている(例えば、フラッシュ設定が自動に設定されている)かどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブ(例えば、アクティブ(「オン」)、非アクティブ(「オフ」))であることを示す。 In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive (eg, the flash setting is set to automatic). The flash status indicator (eg, 602a) is flash-operated (eg, 602a) according to the determination that the flash operating criteria are met, including criteria that are met if the flash setting is set to automatically determine if. For example, while capturing media, the device is active (eg, active (“on”), inactive (“off”) when the device uses additional light from a light source (eg, the light source contained in the device). )). The flash status indicator, which indicates the status of the flash operation, is active, and the current flash operation is determined according to the determination that the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation standard is met. Notify the user of the settings and the amount of light in the environment. By providing improved feedback to the user, it improves the usability of the device (eg, assists the user in providing appropriate input when manipulating / interacting with the device, and user error. Reduces power usage and improves device battery life by making the user-device interface more efficient (by reducing) and, in addition, allowing users to use the device faster and more efficiently. do. In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive (eg, the flash setting is set to automatic). The low light capture indicator (eg, 602c) is low light according to the determination that the flash operating criteria are met, including criteria that are met if the flash setting is set to automatically determine if. Indicates that the capture mode state is inactive (eg, active (“on”), inactive (“off”)).
いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータは、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態が非アクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であり、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)がアクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態が非アクティブであることを示し、低光キャプチャインジケータは、低光キャプチャモードの状態がアクティブであることを示す。 In some embodiments, the amount of light in the field of view of one or more cameras is in the first predetermined range (moderately low light (moderately low light), while the amount of light in the field of view of one or more cameras meets the low light environmental criteria. For example, 20-10 lux); according to the determination that the flash setting (eg, the flash mode setting on the device) is set to active (eg, on) and within the flash range), the flash status indicator is , Indicates that the state of flash operation (eg, operability that may not occur when the flash captures media) is active, and the low light capture indicator (eg, 602c) indicates the state of low light capture mode. Indicates that is inactive. In some embodiments, the amount of light in the field of view of one or more cameras is in the first predetermined range (moderately low light (moderately low light), while the amount of light in the field of view of one or more cameras meets the low light environmental criteria. For example, 20-10 lux); within the flash range) and according to the determination that the flash setting (eg, the flash mode setting on the device) is set to active (eg, on), the flash status indicator (eg, on). For example, 602a) indicates that the flash operating state is inactive, and the low light capture indicator indicates that the low light capture mode state is active.
いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲(非常に低光(例えば、10〜0ルクスなどの範囲);フラッシュ範囲内)内であり、(いくつかの実施形態では、第1の所定の範囲(例えば、20〜10ルクスなどの範囲)が、第2の所定の範囲(10〜0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されているという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態が非アクティブであることを示し、低光キャプチャインジケータ(例えば、602c)は、低光キャプチャモードの状態がアクティブであることを示す。いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、1つ以上のカメラの視野内の光量が第1の所定の範囲とは異なる第2の所定の範囲(例えば、非常に低光(例えば、10〜0ルクスなどの範囲);フラッシュ範囲内)内であり、(いくつかの実施形態では、第1の所定の範囲(例えば、20〜10ルクスなどの範囲)が、第2の所定の範囲(10〜0ルクス)よりも大きく、かつフラッシュ設定(例えば、デバイス上のフラッシュモード設定)が非アクティブ(例えば、オン)に設定されていないという判定に従って、フラッシュ状態インジケータ(例えば、602a)は、フラッシュ動作の状態がアクティブであることを示し、低光キャプチャ(例えば、602c)インジケータは、低光キャプチャモードの状態が非アクティブであることを示す。 In some embodiments, the amount of light in the field of one or more cameras is different from the first predetermined range while the amount of light in the field of one or more cameras meets the low light environmental criteria. Within a predetermined range (very low light (eg, range of 10-0 lux, etc.); within the flash range) (in some embodiments, a first predetermined range (eg, 20-10 lux, etc.), etc. According to the determination that the range of A flash status indicator (eg, 602a) indicates that the state of flash operation (eg, operability that the flash may not experience when capturing media) is inactive and a low light capture indicator (eg, eg). , 602c) indicates that the low light capture mode state is active. In some embodiments, one or more while the amount of light in the field of one or more cameras meets the low light environmental criteria. The amount of light in the field of view of the camera is within a second predetermined range (eg, very low light (eg, range of 10-0 lux); within the flash range), which is different from the first predetermined range. In some embodiments, the first predetermined range (eg, a range of 20-10 lux) is greater than the second predetermined range (10-0 lux) and the flash setting (eg, on the device). According to the determination that the flash mode setting) is not set to inactive (eg, on), a flash status indicator (eg, 602a) indicates that the flash operating state is active and a low light capture (eg, eg). 602c) The indicator indicates that the low light capture mode state is inactive.
いくつかの実施形態では、フラッシュインジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示す間に、電子デバイス(例えば、600)は、フラッシュ状態インジケータの選択(例えば、タップ)を受信する(2116)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応答して(2118)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新する(例えば、フラッシュ状態インジケータをアクティブから非アクティブに変更する)(2120)。いくつかの実施形態では、フラッシュ状態インジケータ(例えば、602a)の選択を受信したことに応答して(2118)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケータ(例えば、602c)を更新する(例えば、低光キャプチャインジケータを非アクティブからアクティブに変更する)(2122)。選択可能フラッシュ状態インジケータを提供することにより、ユーザが、フラッシュ動作の状態を(例えば、アクティブから非アクティブに、又は非アクティブからアクティブに)迅速かつ容易に変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、フラッシュ状態インジケータをタップすることにより、フラッシュモードがオンになり、低光モードがオフになる。 In some embodiments, a flash indicator (eg, 602a) is displayed, indicating that the flash operating state is active, and a low light capture indicator (eg, 602c) is displayed and low. While indicating that the state of optical capture mode is inactive, the electronic device (eg, 600) receives a selection (eg, tap) of the flash state indicator (2116). In some embodiments, in response to receiving a selection of a flash status indicator (eg, 602a) (2118), the electronic device (eg, 600) indicates that the flash operating state is inactive. To update the flash status indicator (eg, change the flash status indicator from active to inactive) (2120). In some embodiments, in response to receiving a selection of a flash state indicator (eg, 602a) (2118), the electronic device (eg, 600) indicates that the low light capture mode state is active. As shown, the low light capture indicator (eg, 602c) is updated (eg, the low light capture indicator is changed from inactive to active) (2122). By providing a selectable flash status indicator, the user can quickly and easily change the state of the flash operation (eg, from active to inactive or from inactive to active). By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, tapping the flash status indicator turns on the flash mode and turns off the low light mode.
いくつかの実施形態では、フラッシュインジケータ(例えば、602a)が表示されており、かつフラッシュ動作の状態がアクティブであることを示し、低光キャプチャインジケータ(例えば、602c)が表示されており、かつ低光キャプチャモードの状態が非アクティブであることを示す間に、電子デバイス(例えば、600)は、低光キャプチャ状態インジケータの(例えば、タップ)選択を受信する(2124)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応答して(2126)、電子デバイス(例えば、600)は、フラッシュ動作の状態が非アクティブであることを示すように、フラッシュ状態インジケータ(例えば、602a)を更新する(例えば、フラッシュ状態インジケータを非アクティブからアクティブに変更する)(2128)。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)の選択を受信したことに応答して(2126)、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、低光キャプチャ状態インジケータを非アクティブからアクティブに変更する)(2130)。選択可能低光キャプチャ状態インジケータを提供することにより、ユーザが、低光キャプチャモードを迅速かつ容易に変更することを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、低光キャプチャ状態インジケータ(例えば、602c)をタップすることにより、低光モードがオンになり、フラッシュモードがオフになる。 In some embodiments, a flash indicator (eg, 602a) is displayed, indicating that the flash operating state is active, and a low light capture indicator (eg, 602c) is displayed and low. While indicating that the state of light capture mode is inactive, the electronic device (eg, 600) receives a (eg, tap) selection of the low light capture state indicator (eg, tap) (2124). In some embodiments, in response to receiving a selection of the low light capture state indicator (eg, 602c) (2126), the electronic device (eg, 600) has the flashing state inactive. Update the flash status indicator (eg, 602a) (eg, change the flash status indicator from inactive to active) (2128). In some embodiments, in response to receiving a selection of the low light capture state indicator (eg, 602c) (2126), the electronic device (eg, 600) is active in the low light capture mode state. The low light capture status indicator is updated (eg, the low light capture status indicator is changed from inactive to active) (2130) to indicate that. By providing a selectable low light capture status indicator, the user can quickly and easily change the low light capture mode. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, tapping the low light capture status indicator (eg, 602c) turns the low light mode on and the flash mode off.
いくつかの実施形態では、低光キャプチャモードの状態がアクティブであるという判定に従って、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示する(2132)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。低光キャプチャモードの状態がアクティブであるという判定に従って、キャプチャ持続時間を調整するキャプチャ持続時間を調整するコントロールを表示することにより、ユーザが、このようなコントロールが必要とされる可能性があるときに、キャプチャ持続時間を調整するコントロールに迅速かつ容易にアクセスすることを可能にする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the electronic device (eg, 600) displays a control (eg, 1804) (eg, slider) that adjusts the capture duration, depending on the determination that the low light capture mode state is active. (2132) (measured, for example, by time (eg, total capture time, exposure time), number of pictures / frames). Adjusting the capture duration according to the determination that the low light capture mode state is active When the user may need such a control by displaying a control that adjusts the capture duration. In addition, it allows quick and easy access to controls that adjust the capture duration. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control.
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイス(例えば、600)は、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信する(2134)。いくつかの実施形態では、第1のキャプチャ持続時間から第2のキャプチャ持続時間にコントロールを変更する要求を受信したことに応答して(2136)、第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間(例えば、ゼロ以下の持続時間(例えば、標準条件又は別の条件でデバイスを動作させる持続時間に対応する持続時間))であるという判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態が非アクティブであることを示すように、低光キャプチャ状態インジケータ(例えば、602c)を更新する(2138)。いくつかの実施形態では、キャプチャ持続時間が所定のキャプチャ持続時間でないという判定に従って、電子デバイス(例えば、600)は、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャインジケーション(例えば、602c)を維持する。第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるか、又はキャプチャ持続時間が所定のキャプチャ持続時間でないかどうかの判定に基づいて、低光キャプチャ状態インジケータを(例えば、自動的に、ユーザ入力なしで)更新することによって、ユーザに、低光キャプチャモードがアクティブ又は非アクティブであるかどうかの視覚的フィードバックを提供し、ユーザが低光キャプチャモードを手動で変更する必要がないことを可能にする。改善された視覚的フィードバックを提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) moves from the first capture duration to the second capture duration while displaying a control (eg, 1804) that adjusts the capture duration. Receives a request to change the control (2134). In some embodiments, in response to receiving a request to change the control from the first capture duration to the second capture duration (2136), the second capture duration is set to low light capture mode. An electronic device (eg, a duration corresponding to the duration of operating the device under standard or other conditions) determined to be a predetermined capture duration to be deactivated (eg, a duration below zero (eg, a duration corresponding to the duration of operating the device under standard or different conditions)). , 600) update the low light capture state indicator (eg, 602c) to indicate that the low light capture mode state is inactive (2138). In some embodiments, according to the determination that the capture duration is not a given capture duration, the electronic device (eg, 600) has a low light capture indicator to indicate that the low light capture mode state is active. The capture (eg, 602c) is maintained. The low light capture status indicator is based on determining whether the second capture duration is a given capture duration that deactivates the low light capture mode, or if the capture duration is not a given capture duration. By updating (eg, automatically, without user input), the user is provided with visual feedback as to whether the low light capture mode is active or inactive, and the user manually sets the low light capture mode. Allows you to not have to change. By providing improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with / interacting with the device) is enhanced. By assisting the user in providing proper input at times and reducing user errors), and in addition, by allowing the user to use the device faster and more efficiently. Power usage is reduced and battery life is improved.
いくつかの実施形態では、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)を表示している間に、電子デバイス(例えば、600)は、低光キャプチャモードの状態の変化を検出する。いくつかの実施形態では、低光キャプチャモードの状態の変化を検出したことに応答して、低光キャプチャモードの状態が非アクティブであるという判定に従って、電子デバイス(例えば、600)は、キャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ)の表示を停止する(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。低光キャプチャモードの状態の変化を検出したことに応答して、及び低光キャプチャモードの状態が非アクティブであるという判定に従って、キャプチャ持続時間を調整するコントロールを表示するのをやめることによって、電子デバイスは、現在必要とされる可能性がないコントロールオプションを削除するので、追加の表示されたコントロールによってUIを雑然とさせない。これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、調整可能なコントロール(例えば、1804)は、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the electronic device (eg, 600) changes the state of the low light capture mode while displaying a control (eg, 1804) (eg, slider) that adjusts the capture duration. To detect. In some embodiments, the electronic device (eg, 600) captures persists according to the determination that the low light capture mode state is inactive in response to detecting a change in the low light capture mode state. Stop displaying a time-adjusting control (eg, 1804) (eg, slider) (eg, time (eg, total capture time, exposure time), measured by number of pictures / frames). Electronic by detecting a change in the state of the low light capture mode and by stopping displaying the control that adjusts the capture duration according to the determination that the state of the low light capture mode is inactive. The device removes control options that may not currently be needed, so additional displayed controls do not clutter the UI. This enhances the usability of the device and provides a user-device interface (eg, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved. In some embodiments, the adjustable control (eg, 1804) includes tick marks, and each tick mark represents the value of the adjustable control.
いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内に、1つ以上のカメラの視野の第1の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第1のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第1のメディアのキャプチャを開始する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第1のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、第1のメディアのキャプチャ持続時間について1つ以上のカメラの視野の第1の表現の表示を維持する(例えば、更新又は変更なしで表示し続ける)。 In some embodiments, the electronic device (eg, 600) displays a first representation of the field of view of one or more cameras within the camera user interface (eg, 608). In some embodiments, the electronic device (eg, 600) receives a request to capture the first medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a first medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the first media (eg, via one or more cameras). In some embodiments, a request to capture a first medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to receipt, the electronic device (eg, 600) maintains a display of the first representation of the field of view of one or more cameras for the capture duration of the first media (eg, no updates or changes). Continue to display with).
いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第2のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第2のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第2のメディアのキャプチャを開始する。いくつかの実施形態では、第2のメディアを(例えば、1つ以上のカメラを介して)キャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、第2のメディア(例えば、キャプチャされている写真又はビデオ)の表現を同時に表示する。第2のメディアをキャプチャしている間に、カメラユーザインタフェース内に、第2のメディアの表現を同時に表示することによって、ユーザに、キャプチャされている第2のメディアの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device (eg, 600) receives a request to capture a second medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a second medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the second media (eg, via one or more cameras). In some embodiments, the electronic device (eg, 600) is in the camera user interface while capturing the second media (eg, through one or more cameras). Display representations (eg, captured photos or videos) at the same time. While capturing the second media, the user is provided with visual feedback of the second media being captured by simultaneously displaying a representation of the second media in the camera user interface. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、1つ以上のカメラの視野の第2の表現を表示する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、電子デバイス(例えば、600)は、1つ以上のカメラの視野の第3のメディアをキャプチャする要求を受信する。いくつかの実施形態では、低光キャプチャモードの状態がアクティブである間に、第3のメディア(例えば、写真、ビデオ)をキャプチャする要求(例えば、キャプチャアフォーダンスのアクティブ化(例えば、タップオン))を受信したことに応答して、電子デバイス(例えば、600)は、(例えば、1つ以上のカメラを介して)第3のメディアのキャプチャを開始する。いくつかの実施形態では、第3のメディアをキャプチャしている間に、電子デバイス(例えば、600)は、カメラユーザインタフェース内の1つ以上のカメラの視野から導出された(例えば、それからキャプチャされた、それに基づく)表現(例えば、キャプチャされているメディア)の表示を停止する。第3のメディアをキャプチャしている間に、及び低光キャプチャモードの状態がアクティブである間に、1つ以上のカメラの視野から導出された表現の表示を停止することによって、電子デバイスは、更なるユーザ入力を必要とせずに1組の条件が満たされたときに動作を行い、これにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device (eg, 600) displays a second representation of the field of view of one or more cameras within the camera user interface. In some embodiments, the electronic device (eg, 600) receives a request to capture a third medium in the field of view of one or more cameras while the low light capture mode state is active. In some embodiments, a request to capture a third medium (eg, photo, video) (eg, capture affordance activation (eg, tap-on)) is made while the low light capture mode state is active. In response to the receipt, the electronic device (eg, 600) initiates the capture of the third medium (eg, via one or more cameras). In some embodiments, while capturing the third medium, the electronic device (eg, 600) is derived from the field of view of one or more cameras within the camera user interface (eg, captured from it). Also, stop displaying the representation (eg, the captured media) based on it. By stopping the display of representations derived from the field of view of one or more cameras while capturing a third medium and while the low light capture mode state is active, the electronic device can: It operates when a set of conditions is met without the need for additional user input, which enhances the usability of the device and makes the user-device interface (eg, manipulating the device / interacting with the device). By assisting the user in providing proper input and reducing user errors), and by allowing the user to use the device faster and more efficiently. Power usage is reduced and battery life is improved.
1つ以上のカメラの視野内の光量を検出したことに応答して(2106)、1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース(例えば、608)内の低光キャプチャ状態インジケータ(例えば、602c)を表示するのをやめる(例えば、フラッシュ状態インジケータの表示を維持している間に)(2114)。1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、低光キャプチャ状態インジケータを表示するのをやめることにより、(例えば、検出された光量に基づく必要がないため)低光キャプチャモードが非アクティブであることをユーザに知らせる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to detecting the amount of light in the field of view of one or more cameras (2106), according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria, an electronic device (eg, eg). 600) ceases to display the low light capture state indicator (eg, 602c) in the camera user interface (eg, 608) (eg, while maintaining the display of the flash state indicator) (2114). By stopping displaying the low light capture status indicator according to the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental standard (eg, because it does not have to be based on the amount of light detected). ) Inform the user that the low light capture mode is inactive. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、更に1つ以上のカメラの視野内の光量が低光環境基準を満たしていないという判定に従って、電子デバイス(例えば、600)は、カメラユーザインタフェース内に、フラッシュ動作の状態を示すフラッシュ状態インジケータ(例えば、602a)を表示する(例えば、フラッシュ状態インジケータは、低光モードで表示されていないときに、維持される)。 In some embodiments, the electronic device (eg, 600) is in a flash operating state within the camera user interface, in accordance with the determination that the amount of light in the field of view of one or more cameras does not meet the low light environmental criteria. Displays a flash status indicator (eg, 602a) that indicates (eg, the flash status indicator is maintained when not displayed in low light mode).
いくつかの実施形態では、フラッシュ動作の状態及び低光キャプチャモードの状態は、互いに排他的である(例えば、フラッシュ動作及び光キャプチャモードは、同時ではない(例えば、フラッシュ動作がアクティブであるとき、低光キャプチャモードは非アクティブであり、低光キャプチャモードがアクティブであるとき、フラッシュ動作は非アクティブである))。互いに排他的であるフラッシュ動作及び低光キャプチャモードは、デバイスのリソースをより効率的な方法で使用しているため、電子デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the flash operation state and the low light capture mode state are mutually exclusive (eg, the flash operation and the light capture mode are not simultaneous (eg, when the flash operation is active). The low light capture mode is inactive, and when the low light capture mode is active, the flash operation is inactive)). The mutually exclusive flash operation and low light capture modes use the device's resources in a more efficient way, thus reducing the power usage of the electronic device and improving battery life.
いくつかの実施形態では、低光キャプチャモードの状態は、アクティブ状態(例えば、図26Hの602c)(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアキャプチャするように現在構成される状態))、利用可能状態(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、図26Bの602c)(例えば、デバイスが低光キャプチャモードでメディアキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))、並びに非アクティブ状態(例えば、図26Aの602cが不存在)(例えば、低光キャプチャモードが非アクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されていない状態))からなる群から選択される。 In some embodiments, the low light capture mode state is an active state (eg, 602c in FIG. 26H) (eg, a state indicating that the low light capture mode is active (eg, the device captures media). In response to a request, a state currently configured to capture media in low light capture mode), an available state (eg, a state indicating that low light capture mode is available (eg, 602c in FIG. 26B)). ) (For example, the device is not currently configured to capture media in low light capture mode, but can be configured to capture media in low light mode), that low light capture mode is available. The device indicates that the device cannot be manually turned on or off by the user (eg, the low light capture mode indicator is first (recently) displayed, or the device has determined to display the low light capture mode indicator. Not configured to capture media in low light capture mode or do not capture media in low light capture mode), and inactive (eg, 602c in FIG. 26A is absent) (eg, low light Consists of a group of states indicating that the capture mode is inactive (for example, the device is not currently configured to capture the media in low light capture mode in response to a request to capture the media). Be selected.
いくつかの実施形態では、1つ以上のカメラの視野内の光量が低光環境基準を満たす間に、かつ1つ以上のカメラの視野内の光量が第3の所定の範囲(適度に低光(例えば、20〜10ルクス);フラッシュ範囲の外側)内であるという判定に従って、フラッシュ状態インジケータは、フラッシュ動作(例えば、フラッシュがメディアをキャプチャする際に発生する可能性がない操作性)の状態が利用可能であることを示す(例えば、図26Bの602c)。 In some embodiments, the amount of light in the field of view of one or more cameras meets the low light environmental criteria, and the amount of light in the field of view of one or more cameras is in a third predetermined range (moderately low light). According to the determination (eg, 20-10 lux); within the flash range), the flash status indicator indicates the status of the flash operation (eg, operability that the flash may not experience when capturing media). Is available (eg, 602c in FIG. 26B).
いくつかの実施形態では、キャプチャ持続時間を調整するコントロールは、第1のコントロールである。いくつかの実施形態では、フラッシュ状態インジケータが、フラッシュ動作の状態が利用可能であることを示す間に(例えば、図26Bの602c)、電子デバイスは、低光キャプチャ状態インジケータの選択を受信する。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、電子デバイスは、低光キャプチャモードの状態がアクティブであることを示すように、低光キャプチャ状態インジケータを更新する(例えば、図26B〜図26Cの602c)。いくつかの実施形態では、キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、及びフラッシュ状態インジケータが、フラッシュモードの状態が自動であることを示すという判定に従って、電子デバイスは、フラッシュモードの状態が非アクティブであることを示すように、フラッシュ状態インジケータを更新し、かつキャプチャ持続時間を調整する第2のコントロール(例えば、スライダ)を表示する(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)。いくつかの実施形態では、調整可能なコントロールは、ティックマークを含み、各ティックマークは、調整可能なコントロールの値を表す。 In some embodiments, the control that adjusts the capture duration is the first control. In some embodiments, the electronic device receives a selection of low light capture status indicators while the flash status indicator indicates that a flash operating status is available (eg, 602c in FIG. 26B). In some embodiments, in response to receiving a selection of the capture low light capture state indicator, the electronic device uses a low light capture state indicator to indicate that the low light capture mode state is active. Update (eg, 602c in FIGS. 26B-26C). In some embodiments, the electronic device flashes in response to receiving a selection of the capture low light capture status indicator, and according to the determination that the flash status indicator indicates that the flash mode state is automatic. Update the flash status indicator to indicate that the mode state is inactive, and display a second control (eg, slider) that adjusts the capture duration (eg, time (eg, total capture time)). , Exposure time), measured by the number of pictures / frames). In some embodiments, the adjustable control includes tick marks, where each tick mark represents the value of the adjustable control.
いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス未満などの所定の範囲)内であるという判定に従って、第1の低光キャプチャ状態インジケータ(例えば、図26Hの602c)は、第1のキャプチャ持続時間の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)を含む。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス超などの所定の範囲)内にないという判定に従って、第1の低光キャプチャ状態インジケータは、第1のキャプチャ持続時間(例えば、図26Eの602c)の第1の視覚表現(例えば、第1のキャプチャ持続時間を示すテキスト)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間ホイール)を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, a first low light capture according to the determination that the peripheral light in the field of view of one or more cameras is within a fourth predetermined range (eg, a predetermined range such as less than 1 lux). The status indicator (eg, 602c in FIG. 26H) includes a first visual representation of the first capture duration (eg, text indicating the first capture duration). In some embodiments, the first low light capture is based on the determination that the peripheral light in the field of view of one or more cameras is not within a fourth predetermined range (eg, a predetermined range, such as over 1 lux). The status indicator is set to the first visual representation (eg, text indicating the first capture duration) (or control is set to the second capture duration) of the first capture duration (eg, 602c in FIG. 26E). Does not include a second capture duration wheel) that displays the indication that it is. In some embodiments, when the peripheral light in the field of view of one or more cameras changes, the electronic device is based on whether the peripheral light is in a first predetermined range or a second predetermined range. Automatically reassess whether to display a visual representation of the first capture duration (or second capture duration).
いくつかの実施形態では、1つ以上のカメラの視野内の光量を検出したことに応答して、及び1つ以上のカメラの視野内の光量が低光環境基準を満たすという判定に従って、電子デバイスは、1つ以上のカメラの視野内の周辺光が第3の所定の範囲内(例えば、1ルクスなどの閾値未満)にあるという判定に従って、低光キャプチャ状態インジケータ(例えば、図26Hの602c)が、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))ことを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含み;1つ以上のカメラの視野内の周辺光が第4の所定の範囲(例えば、1ルクス〜10ルクスなどの範囲)内にあるという判定に従って、低光キャプチャ状態インジケータ(例えば、図26Eの602c)が、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現(例えば、「5秒」)を含まず;1つ以上のカメラの視野内の周辺光が第5の所定の範囲(例えば、10〜20ルクスなどの範囲)内にあるという判定に従って、低光キャプチャ状態インジケータが、低光キャプチャモードの状態が利用可能である(例えば、図26Bの602c)ことを示し、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含む低光キャプチャ状態インジケータと、低光キャプチャモードの状態がアクティブであることを示し、第1のキャプチャ持続時間の第2の視覚表現を含まない低光キャプチャ状態インジケータと、低光キャプチャモードの状態が利用可能である(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であることを示し、ユーザによってオン又はオフに手動ですることができない状態(例えば、低光キャプチャモードインジケータがまず(最近)表示されるか、又は低光キャプチャモードインジケータを表示する判定を行ったため、デバイスは、低光キャプチャモードでメディアをキャプチャするように構成されていないか、又は低光キャプチャモードでメディアをキャプチャしない))低光キャプチャ状態インジケータとが、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光モードの状態が利用可能であることを示す低光キャプチャモードは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲であるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device responds to the detection of light in the field of view of one or more cameras, and in accordance with the determination that the light in the field of view of one or more cameras meets the low light environmental criteria. Is a low light capture state indicator (eg, 602c in FIG. 26H) according to the determination that the ambient light in the field of view of one or more cameras is within a third predetermined range (eg, less than a threshold such as 1 lux). However, the low light capture mode state is active (for example, a state indicating that the low light capture mode is active (for example, the device responds to a request to capture the media and moves the media in the low light capture mode). Indicates that it is currently configured to capture)) and includes a second visual representation of the first capture duration (eg, "5 seconds"); ambient light within the field of view of one or more cameras. According to the determination that is within a fourth predetermined range (eg, 1 lux to 10 lux, etc.), the low light capture state indicator (eg, 602c in FIG. 26E) is active in the low light capture mode state. Indicates that it does not include a second visual representation of the first capture duration (eg, "5 seconds"); ambient light within the field of view of one or more cameras is in a fifth predetermined range (eg, "eg"). According to the determination that it is within a range of 10 to 20 lux, etc.), the low light capture status indicator indicates that the low light capture mode state is available (eg, 602c in FIG. 26B) and is in the low light capture mode. A low light capture state indicator that indicates that the state is active and includes a second visual representation of the first capture duration, and a low light capture mode state that indicates that the state is active and has a first capture duration. A low-light capture state indicator that does not include a second visual representation of the, and a low-light capture mode state are available (eg, a state that indicates that low-light capture mode is available (eg, the device is low). A state that is not currently configured to capture media in optical capture mode, but can be configured to capture media in low optical mode), indicates that low optical capture mode is available and is turned on or by the user. The device cannot be turned off manually (for example, the low light capture mode indicator is displayed first (recently), or the low light capture mode indicator is displayed because it is determined to be displayed. The low light capture status indicators, which are not configured to capture media in low light capture mode or do not capture media in low light capture mode, are visually different from each other (eg, displayed). Different colors, textures, thicknesses, letters, or marks (eg, with or without a visual representation of the capture duration) that are delineated to indicate inactivity). In some embodiments, the low light capture mode, which indicates that the low light mode state is available, does not include a visual representation of the capture duration (eg, a third capture duration). Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light condition indicator without visual representation when certain conditions are met, the electronic device is configured to capture media during low light mode without cluttering the user interface. Provides users with feedback using the capture duration to capture media, which is the normal range of capture duration. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light capture status indicator that indicates a low light state when certain conditions are met, the user can capture media in low light mode but in low light mode (eg, user). While configurable (via input), it allows the electronic device to quickly recognize that it is not configured to capture media, in response to a user receiving a request to capture media. , Allows you to quickly understand that electronic devices do not operate according to low light mode. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
方法2100に関して上述された処理(例えば、図21A〜図21C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2300、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2100を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for method 2100 (eg, FIGS. 21A-21C) are also applicable to the methods described above in a similar manner. For example,
図22A〜図22AMは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図23A〜図23Bにおける処理を含む、以下で説明される処理を例示するために使用される。 22A-22AM show exemplary user interfaces for editing media captured using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 23A-23B.
図22Aは、メディアビューワユーザインタフェースを表示する電子デバイス600を示す。メディアビューワユーザインタフェースは、編集アフォーダンス644a及びキャプチャされたメディア(例えば、写真)の表現2230aを含む。表現2230aを表示している間に、デバイス600は、ポートレートカメラモード(例えば、ボケ及び/又は照明効果が適用されているモード)が有効化された間に(例えば、シャッターボタン610のアクティブ化により、デバイス600が図8Hに示すように、ポートレートモードで構成されている間に、キャプチャされたメディアが深度情報を含む)、表現2230aによって表されたキャプチャされたメディアが以前にキャプチャされたと判定する。更には、判定に応答して、デバイス600は、ポートレート画像状態インジケータ644gを表示する。換言すれば、ポートレート画像状態インジケータ644gは、表現2230aがポートレート画像の表現であると示す。
FIG. 22A shows an
図22Aでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2250aを検出する。タップジェスチャ2250aを検出したことに応答して、図22Bに示すように、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える。図22Bに示すように、メディア編集ユーザインタフェースは、図22Aにおいて表現2230aに対応する表現2230bを含む。すなわち、表現2230bは、任意の調整なしに、表現2230aとして以前にキャプチャされたメディアと同じ表現を示す。メディア編集ユーザインタフェースはまた、インジケータ領域602及びコントロール領域606を含む。図22Aにおいて、コントロール領域606の一部分は、表現2230b上に重ねられ、任意選択的に着色された(例えば、灰色、半透明)オーバーレイを含む。いくつかの実施形態では、インジケータ領域602は、表現2230b上に重ねられ、任意選択的に着色された(例えば、灰色、半透明)オーバーレイを含む。
In FIG. 22A, the
コントロール領域606は、編集モードアフォーダンス2210を含み、編集モードアフォーダンス2210には、ポートレートメディア編集モードアフォーダンス2210a、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。ポートレートメディア編集モードアフォーダンス2210aは、メディア編集モードアフォーダンスのタイプである。すなわち、ポートレートメディア編集モードアフォーダンス2210aは、編集されている特定のタイプのキャプチャされたメディアに対応する。メディア編集アフォーダンスが選択されると、デバイス600は、特定のタイプのメディアを編集するように設計された特定の1組の編集ツールを表示する。図22Aでは、デバイス600は、ポートレート画像(例えば、深度情報を含むメディアに基づく)に対応する表現2230bを判定し、それに応答して、ポートレートメディア編集モードアフォーダンス2210aを表示する。ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aによって示されるように、ポートレートメディア編集モードアフォーダンス2210aが選択されるため、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を表示する。いくつかの実施形態では(例えば、図22AE〜図22AL)、デバイス600がアニメーション化された画像メディア又はビデオメディアなどの異なるタイプのメディアに対応する表現を判定するときに、デバイス600は、(例えば、1つ以上の)異なるタイプのメディア編集アフォーダンス(例えば、図22AIのビデオメディア編集モードアフォーダンス2210f)を表示する。選択されると、異なるタイプのメディア編集アフォーダンスは、デバイス600に、ポートレートメディア編集ツールアフォーダンス2212とは異なる特定の1組のツールアフォーダンス(例えば、ビデオメディアアフォーダンス2222)を表示させる。いくつかの実施形態では、デバイス600は、キャプチャされたメディアが、それぞれのタイプのメディアを編集するための対応する特定の1組の編集ツールを有さないタイプのメディアに対応すると判定する。更には、それに応答して、デバイス600は、それぞれのタイプのメディアを編集するメディア編集アフォーダンスを表示せず、代わりに、それぞれのタイプのメディアに固有の(例えば、対応する)編集ツールを表示せずに、編集モードアフォーダンス2210b〜2210dを表示する。
The
図22Bでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250bを検出する。図22Cに示すように、タップジェスチャ2250bを検出したことに応答して、デバイス600は、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示し、ポートレートメディア編集モードアフォーダンス2210aの下のモード選択インジケータ2202aの表示を停止する。視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを表示することにより、デバイス600が、ポートレート編集モードで動作するように構成されていることから、視覚特性編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250bを検出したことに応答して、デバイス600はまた、ポートレートメディア編集ツールアフォーダンス2212を、視覚特性編集ツールアフォーダンス2214に置き換える。ポートレートメディア編集ツールアフォーダンス2212を置き換えた後、視覚特性編集ツールアフォーダンス2214は、ポートレートメディア編集ツールアフォーダンス2212が図22Aで占有された、メディア編集ユーザインタフェースの一部分を最初に占有する。視覚特性編集ツールアフォーダンス2214は、自動視覚特性編集ツールアフォーダンス2214a、露出編集ツールアフォーダンス2214b、及び輝度編集ツールアフォーダンス2214cを含む。視覚特性編集ツールは、選択されると、デバイス600に、以下の図に示すように、表現の1つ以上の視覚特性を調整するユーザインタフェース要素を表示させる。
In FIG. 22B, the
図22Cに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250cを検出する。図22Dに示すように、タップジェスチャ2250cを検出したことに応答して、デバイス600は、自動的に(追加のユーザ入力なしで)、視覚特性編集ツールアフォーダンス2214a〜2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。その結果、デバイス600は、メディアユーザインタフェースの左縁部に近接した自動視覚特性編集ツールアフォーダンス2214aと、自動視覚特性編集ツールアフォーダンス2214aの右隣の露出編集ツールアフォーダンス2214bと、露出編集ツールアフォーダンス2214bの右隣の輝度編集ツールアフォーダンス2214cと、を表示する。したがって、デバイス600は、輝度編集ツールアフォーダンス2214cが水平中心に表示されているが、視覚特性編集ツールアフォーダンス2214a〜2214cの順番の表示を維持する。視覚特性編集ツールがデバイス600の水平中心に表示されているときに、デバイス600は、特定の編集ツールを介して調整される値に対応する表現の視覚特性を調整するように構成される。したがって、輝度編集ツールアフォーダンス2214cが図22Dのメディア編集ユーザインタフェースの中心にあるため、デバイス600は、表現2230bの輝度を調整するように構成される。更に、輝度編集ツールアフォーダンス2214cが選択されていることを示すために、デバイス600は、ツール選択インジケータ2204cを表示する。視覚特性編集ツールアフォーダンス2214a〜2214cを動かすことに加えて、デバイス600はまた、図22Bに表示されていない2つの追加の視覚特性編集ツールアフォーダンス(それぞれ表示された、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214e)を表示する。図22Dに示すように、タップジェスチャ2250cを検出したことに応答して、デバイス600はまた、自動的に(追加のユーザ入力なしで)、調整可能な輝度コントロール2254cを表示する。調整可能な輝度コントロール2254cは、輝度コントロールインジケーション2254c1及び複数のティックマークを含むスライダであり、各ティックマークは、表現2230bの輝度を調整する値に対応する。輝度コントロールインジケーション2254c1は、調整可能な輝度コントロール2254c上の2つの連続した隣接するチケットマークの間にあるスライダ上の位置に表示される。調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置は、表現2230bの現在の輝度値に対応する。図22Dでは、デバイス600は、調整可能な輝度コントロール2254cに向けられたジェスチャ2250d(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。
As shown in FIG. 22C, the
図22Eに示すように、ジェスチャ2250dを検出したことに応答して、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上のジェスチャ2250dの接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な輝度コントロール2254cを強調する。具体的には、デバイス600は、調整可能な輝度コントロール2254cの表示を拡大及び暗色化し、これは、調整可能な輝度コントロール2254cのティックマーク及び輝度コントロールインジケーション2254c1を拡大することを含む。いくつかの実施形態では、調整可能な輝度コントロール2254cを強調することは、調整可能な輝度コントロール2254cをメディア編集ユーザインタフェースの残りの部分から更に区別することによって、調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1を介して、デバイス600のユーザが正確な輝度値を設定するのを助けることを試みる。いくつかの実施形態では、デバイス600は、調整可能な輝度コントロール2254cの部分(例えば、ティックマーク又は輝度コントロールインジケーション2254c1)の色(例えば、黒から赤)を変更することにより、調整可能な輝度コントロール2254cを強調する。いくつかの実施形態では、デバイス600は、コントロール領域606内の他のユーザインタフェース要素を強調するのをやめることによって、調整可能な輝度コントロール2254cを強調する。他のユーザインタフェース要素を強調するのをやめることは、焦点から外れたコントロール領域606の他の部分(例えば、調整可能な輝度コントロール2254cの下/上のエリア)を表示することを含む。図22Eでは、デバイス600は、ジェスチャ2250dのリフトオフ(例えば、接触の検出を停止する)を検出する。
As shown in FIG. 22E, in response to detecting the
図22Fに示すように、リフトオフのジェスチャ2250dを検出したことに応答して、デバイス600は、調整可能な輝度コントロール2254cを、強調することなく(例えば、図22Dにおいて強調なしで表示されるように)再表示する。更には、ジェスチャ2250dを検出したことに応答して、デバイス600は、ジェスチャ2250dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かす。図22Fでは、ジェスチャ2250dの大きさ及び方向により、デバイス600に、図22Dにおいて輝度コントロールインジケーション2254c1の位置よりも、調整可能な輝度コントロール2254c上の最右端のティックマーク(例えば、輝度の最大値)により近い輝度コントロールインジケーション2254c1の新しい位置を表示させる。輝度コントロールインジケーション2254c1を、調整可能な輝度コントロール2254c上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、輝度コントロールインジケーション2254c1の表示を維持している間に、調整可能な輝度コントロール2254cのティックマークを左(例えば、ジェスチャ2250dの方向)に動かすことを含む。したがって、最右端のティックマークは、図22Dで表示されたところから、図22Fのメディア編集ユーザインタフェースの水平中心により近く表示されており、最右端のティックマークとメディア編集ユーザインタフェースの右縁部との間に追加の空間が残される。
As shown in FIG. 22F, in response to detecting the lift-
加えて、ジェスチャ2250dを検出したことに応答して、デバイス600は、輝度編集ツールアフォーダンス2214cの周囲に輝度値インジケータ2244cを表示する。輝度値インジケータ2244cは、輝度編集ツールアフォーダンス2214cの上方中心(例えば、アナログ時計の12時の位置)で開始し、輝度編集ツールアフォーダンス2214cの周辺部の周りを輝度編集ツールアフォーダンス2214cの周りを半分と少し進んだ位置(例えば、アナログ時計の7時の位置)まで包む、円形ユーザインタフェース要素である。輝度値インジケータ2244cのサイズは、調整可能な輝度コントロール2254cの最大値(例えば、最右端のティックマーク)に対する調整可能な輝度コントロール2254cの現在値を示す。したがって、輝度コントロールインジケーション2254c1が新しい位置に変更されると、輝度値インジケータ2244cを更新して、輝度コントロールインジケーション2254c1の位置に基づいて、輝度編集ツールアフォーダンス2214cの周辺部を多少包含する。いくつかの実施形態では、輝度値インジケータ2244cは、特定の色(例えば、青)として表示される。更に、ジェスチャ2250dを検出したことに応答して、デバイス600は、輝度コントロールインジケーション2254c1の新しい位置に対応する輝度値に基づいて、表現2230bをデジタル的に調整する。輝度コントロールインジケーション2254c1の新しい位置は、図22Dの輝度コントロールインジケーション2254c1上の位置よりも最右端のティックマーク(例えば、輝度の最大値)に近いため、デバイス600は、表現2230bよりも明るい調整された表現2230cを表示する(又は表現2230bを更新する)。調整された表現2230cは、新たに調整された輝度値に基づいて、表示される。
In addition, in response to detecting the
図22Fでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250fを検出する。図22Gに示すように、タップジェスチャ2250fを検出したことに応答して、デバイス600は、調整された表現2230cを、表現2230bに置き換え、図22Eにおいて行われた調整を行わない。換言すれば、調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。調整可能な輝度コントロール2254cがメディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさないことを強調するために、デバイス600は、他の視覚特性編集ツールアフォーダンス2214(例えば、2214a、2214b、2214d、及び2214e)の表示を維持する(例えば、灰色に退色させない)間に、輝度編集ツールアフォーダンス2214c及び調整可能な輝度コントロール2254cを灰色に(例えば、又は半透明に見えるように)退色させる。更に、デバイス600はまた、輝度編集ツールアフォーダンス2214cの周りの輝度値インジケータ2244c、及びツール選択インジケータ2204cの表示を停止する。図22Gに示すように、デバイス600は、輝度編集ツールアフォーダンス2214cをオフにトグルし、新たに調整された輝度値に基づいて調整された(例えば、図22E)、調整された表現2230cを示す代わりに、表現2230bを、元の輝度値とともに示す(例えば、図22B)。図22Gでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250gを検出する。
In FIG. 22F, the
図22Hに示すように、タップジェスチャ2250gを検出したことに応答して、デバイス600は、輝度編集ツールアフォーダンス2214cをトグルオンして、調整された表現2230c、輝度編集ツールアフォーダンス2214c、調整可能な輝度コントロール2254c、ツール選択インジケータ2204c、輝度値インジケータ2244c、ツール選択インジケータ2204cを、図22Fに表示されているように再表示する。調整可能な輝度コントロール2254cの現在値(例えば、図22Eの新たに調整された値)は、メディア編集ユーザインタフェース上に表示されている表現に影響を及ぼさない。いくつかの実施形態では、特定の編集ツールアフォーダンスをトグルオン(タップジェスチャ2250gを介して)又はトグルオフ(例えば、タップジェスチャ2250fを介して)することにより、デバイス600のユーザは、特定の編集ツールの特定の調整された値(例えば、調整された輝度値)がどの程度表現に影響するかを見ることができる。図22Hでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する場所でのタップジェスチャ2250hを検出する。
As shown in FIG. 22H, in response to detecting the
図22Iに示すように、タップジェスチャ2250hを検出したことに応答して、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換える。デバイス600はまた、自動視覚特性コントロールインジケーション2254a1の上にツール選択インジケータ2204aを表示する。デバイス600は、調整可能な自動視覚特性2254aを、調整可能な輝度コントロール2254cが図22Hにおいて表示されたのと同一のそれぞれの場所に表示する。置き換えを行うとき、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の、輝度コントロールインジケーション2254c1が図22Hにおいて調整可能な輝度コントロール2254c上に表示された位置とは異なる位置に表示する。図22Iに示すように、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a値(例えば、50%の自動視覚特性調整値)の中央値に対応する位置に表示し、この位置は、調整可能な輝度コントロール2254c(例えば、75%の輝度値)の最右端のティックマークにより近かった、図22Hにおける輝度コントロールインジケーション2254c1の位置とは異なる。特に、自動視覚特性コントロールインジケーション2254a1の位置は、図22Dにおける調整可能な輝度コントロール2254c上の輝度コントロールインジケーション2254c1の位置に類似している(例えば、ジェスチャ2250dに応答して、調整可能な輝度コントロール2254cが最初に開始されたとき)。
As shown in FIG. 22I, in response to detecting the
いくつかの実施形態では、調整可能なコントロールが最初に開始されたとき、調整可能なコントロールのインジケーションは、調整可能なコントロールの中央の位置に表示される。いくつかの実施形態では、調整可能なコントロールの中央位置は、表示表現内で検出された値、又は自動調整アルゴリズムを介して計算された値に対応する(例えば、中央位置は、自動調整アルゴリズムに基づいて計算された75%の輝度の値に対応する)。更には、1つの調整可能なコントロール上の中央位置(例えば、75%の輝度値)は、別の調整可能なコントロール上の中央位置(例えば、64%の露出値)とは異なる値と等しくすることができる。いくつかの実施形態では、2つの調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)のスケールは、同一又は一貫している(例えば、同一の最小値及び最大値を有する、並びに/又は連続したティックマーク間を表す値の増分は、各スライダ上で同じである)。
In some embodiments, when the adjustable control is first initiated, the adjustable control indication is displayed in the center position of the adjustable control. In some embodiments, the center position of the adjustable control corresponds to a value detected in the display representation or calculated via an auto-adjust algorithm (eg, the center position corresponds to the auto-adjust algorithm). Corresponds to the 75% brightness value calculated based on). Furthermore, the center position on one adjustable control (eg, 75% brightness value) is equal to a different value than the center position on another adjustable control (eg, 64% exposure value). be able to. In some embodiments, the scales of the two adjustable controls (eg, the adjustable automatic
デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能な自動視覚特性コントロール2254aを表示するときに、調整可能な輝度コントロール2254c(例えば、中心の左にティックマーク)のいくつかの静的な部分の表示を、これらと同じそれぞれの位置に維持する。しかしながら、調整可能な輝度コントロール2254cのいくつかの可変部分(例えば、調整可能な輝度コントロール2254c上の中心の右に見える、インジケーション及び新しいティックマークの位置)は、これらと同じそれぞれの位置に維持されない。図22Iに示すように、デバイス600が、調整可能な輝度コントロール2254cの表示を、調整可能な自動視覚特性コントロール2254aの表示に置き換えるときに、デバイス600は、調整可能なコントロールのいくらかの部分を動かしながら(例えば、デバイス600は、自動視覚特性コントロールインジケーション2254a1を、ディスプレイ上の輝度コントロールインジケーション2254c1とは別の位置に動かす)、それぞれの位置に調整可能な輝度コントロール2254cの中心の左にティックマークを維持する。
When the
図22Iに更に示すように、タップジェスチャ2250hを検出したことに応答して、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(例えば、図22Cに示すように、視覚特性編集モードアフォーダンス2210bが図22Bにおいてまず選択されたとき)。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示するために、デバイス600は、視覚特性編集ツールアフォーダンス2214a〜2214fを左にスライドし、これにより、露出編集ツールアフォーダンス2214bは、メディア編集ユーザインタフェースの左に第2から最後のアフォーダンスとして表示され、輝度編集ツールアフォーダンス2214cは、メディア編集ユーザインタフェースの中心の左に最後のアフォーダンスとして表示される。更には、デバイス600は、メディア編集ユーザインタフェースが、輝度編集ツールアフォーダンス2214cの右隣の任意の追加の視覚特性編集ツールアフォーダンス2214を表示するための任意の追加の空間を有さないため、ハイライト編集ツールアフォーダンス2214d及び影編集ツールアフォーダンス2214eの表示を停止する。メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示することは、デバイス600が、調整可能な自動視覚特性コントロール2254aの現在値が、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1の位置に対応する値に対応することに応答して、表示表現を調整するように構成されることを示す。
As further shown in FIG. 22I, in response to detecting the
輝度視覚特性に関連付けられた値のみに影響する(例えば、調整可能な輝度コントロール2254cによって制御された)、図22D〜図22Gで論じられた調整可能な輝度コントロール2254cの現在値とは対照的に、調整可能な自動視覚特性コントロール2254aの現在値は、1つ以上の他の視覚特性の1つ以上の現在値(例えば、輝度及び露出値)に影響する。調整可能な自動視覚特性コントロール2254aの現在値が変化すると、デバイス600は、自動的に(追加のユーザ入力なしで)、1つ以上の他の視覚特性(例えば、他の視覚特性編集ツールアフォーダンス2214に対応する視覚特性)に対応する1つ以上の現在値を更新する。図22Iでは、調整可能な自動視覚特性コントロール2254aの現在値は、デバイス600がタップジェスチャ2250hを検出したことに応答して、変化する。その結果、デバイス600は、輝度値インジケータ2244cを更新して、図22Hにおいて包含された輝度値インジケータ2244cよりも、輝度編集ツールアフォーダンス2214cの周辺部をより少なく包含することによって、現在の調整された輝度値が減少したことを示す。更には、デバイス600は、周辺部露出編集ツールアフォーダンス2214bの周りに露出値インジケータ2244bを表示して、表示表現が現在の露出値(例えば、増加した露出値)によって調整されていることを示す。いくつかの実施形態では、デバイス600は、自動調整アルゴリズムを、表現2230c(例えば、以前に表示表現)及び調整可能な自動視覚特性コントロール2254aの現在値に対応するデータとともに使用することによって、1つ以上の他の視覚特性の現在値(例えば、輝度値又は露出値)を調整する。
In contrast to the current values of the
更に、タップジェスチャ2250hを検出したことに応答して、デバイス600は、表現2230cの表示を、調整された表現2230dに置き換える。表現2230dは、表現2230cの調整されたバージョンに対応し、ここで、表現2230cは、1つ以上の他の視覚特性に対応する1つ以上の更新された現在値(例えば、低下した輝度値又は増加した露出値)に基づいて調整された。図22Iに示すように、表現2230dは、視覚的により暗くなり、表現2230cよりも多く露出している。
Further, in response to detecting the
図22Bに戻ると、デバイス600がジェスチャ2250bを検出した後、いくつかの実施形態では、デバイス600は、図22Cの代わりに図22Iに表示する。その結果、調整可能な自動視覚特性コントロール2254aは、デバイス600に、1つ以上の他の視覚特性(例えば、露出及び/又は輝度値)の1つ以上の現在値を更新させ、かつ1つ以上の更新された現在値に基づいて、調整された表現(例えば、表現2230d)を表示させる。
Returning to FIG. 22B, after
図22Iに戻ると、デバイス600は、調整可能な自動視覚特性コントロール2254aに向けられたジェスチャ2250i(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Jに示すように、ジェスチャ2250iを検出したことに応答して、デバイス600は、(例えば、図22Eにおいてジェスチャ2250d及び調整可能な輝度コントロール2254cに関連して上述したような同様の技術を使用して)デバイス600がジェスチャ2250iの接触を検出し続けている間に、調整可能な自動視覚特性コントロール2254aを強調する。図22Jでは、デバイス600は、ジェスチャ2250iのリフトオフ(例えば、接触の検出を停止する)を検出する。
Returning to FIG. 22I, the
図22Kに示すように、リフトオフのジェスチャ2250iを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254aを、強調することなく(例えば、図22Iにおいて強調なしで表示されるように)再表示し、ジェスチャ2250iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かす。図22Kでは、ジェスチャ2250iの大きさ及び方向により、デバイス600に、図22Iにおける自動視覚特性コントロールインジケーション2254a1の以前の位置よりも、調整可能な自動視覚特性コントロール2254aの最左端のティックマーク(例えば、自動視覚特性調整の最小値)により近い、調整可能な自動視覚特性コントロール2254a上の新しい位置に、自動視覚特性コントロールインジケーション2254a1を表示させる。自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことは、メディア編集ユーザインタフェースの中心に、自動視覚特性コントロールインジケーション2254a1の表示を維持している間に、調整可能な自動視覚特性コントロールのティックマークを右(例えば、ジェスチャ2250iの方向)に動かすことを含む。その結果、最左端のティックマークは、図22Iで表示されたところから、図22Kのメディア編集ユーザインタフェースの中心により近く表示されており、最左端のティックマークとメディア編集ユーザインタフェースの左縁部との間に追加の空間が残される。
As shown in FIG. 22K, in response to detecting the lift-
自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かした後、デバイス600は、自動視覚特性コントロールインジケーション2254a1の位置に対応する更新された自動視覚特性調整値に対応するように、自動特性値インジケータ2244aを更新する。具体的には、デバイス600は、自動特性値インジケータ2244aを修正して、自動視覚特性編集ツールアフォーダンス2214aの周辺部をより少なく包含し、これは、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1をミラーリングする。更には、デバイス600は、これらのそれぞれのインジケータの周辺部をより少なく包含するように修正することによって、新しいより低い調整された露出及び輝度値に対応するように、露出値インジケータ2244b及び輝度値インジケータ2244cを更新し、これはまた、より高い自動視覚特性調整値からより低い自動視覚特性調整値に対応する位置から動く自動視覚特性コントロールインジケーション2254a1の移動をミラーリングする。いくつかの実施形態では、1つ以上の他の視覚特性の1つ以上の値に対応する1つ以上の値インジケータは、自動視覚特性コントロールインジケーション2254a1の移動の反対方向に、維持又は調整され得る。いくつかの実施形態では、1つ以上の視覚特性の値は、自動調整アルゴリズムに基づいて計算される。図22Kに示すように、ジェスチャ2250iのリフトオフを検出したことに応答して、デバイス600は、表現2230dの表示を、調整された表現2230eの表示に置き換え、表現2230eは、ジェスチャ2250iのリフトオフを検出したことに応答して調整された、更新された自動視覚特性調整値及び1つ以上の他の視覚特性値に基づいて、調整された表現2230dのバージョンである。
After moving the automatic visual characteristic control indication 2254a1 to a new position on the adjustable automatic visual
図22Lに示すように、デバイス600は、視覚特性編集ツールアフォーダンス2214が位置するエリアに向けられたジェスチャ2250l(例えば、ドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250lを検出したことに応答して、図22Mに示すように、デバイス600は、デバイス600が、デバイス600のタッチ感知ディスプレイ上の接触を検出し続けている間に(例えば、指の接触がデバイス600のタッチ感知ディスプレイ上に残り続ける間に)、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。具体的には、デバイス600は、ティックマーク及び自動視覚特性コントロールインジケーション2254a1を含む、調整可能な自動視覚特性コントロール2254aのサイズを低減する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254aを強調するのをやめることは、デバイス600のユーザを、特定の編集ツールアフォーダンスにナビゲートするのを助けることを試みる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aの部分(例えば、ティックマーク又は自動視覚特性コントロールインジケーション2254a1)の色(例えば、黒から灰色)を変更することにより、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。いくつかの実施形態では、デバイス600は、調整可能な自動視覚特性コントロール2254aをぼかすこと、又は焦点から外れて調整可能な自動視覚特性コントロール2254aを表示することにより、調整可能な自動視覚特性コントロール2254aを強調するのをやめる。
As shown in FIG. 22L, the
図22Mでは、デバイス600は、ジェスチャ2250lのリフトオフ(例えば、接触の検出を停止する)を検出する。図22Nに示すように、ジェスチャ2250lのリフトオフを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254aを強調するのをやめるのを停止する。デバイス600は、図22Lに表示されたように、自動視覚特性コントロール2254aを再表示する。更には、ジェスチャ2250lを検出したことに応答して、デバイス600は、ジェスチャ2250lの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、視覚特性編集ツールアフォーダンス2214を左にシフトする。図22Nでは、ジェスチャ2250lの大きさ及び方向により、デバイス600に、視覚特性編集ツールアフォーダンス2214f〜2214iを表示させ、視覚特性編集ツールアフォーダンス2214a〜2214eの表示を停止させる。特に、視覚特性編集ツールアフォーダンス2214f〜2214iはまた、各それぞれのアフォーダンスの周りに値インジケータ2244f〜2244iを含む。デバイス600は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に動かすことに応答して、図22J〜図22Kにおいて調整された値インジケータ2244f〜2244iを表示する。
In FIG. 22M,
図22Nでは、デバイス600は、ビネット編集ツールアフォーダンス2214iに対応する場所でのタップジェスチャ2250nを検出する。図22Oに示すように、タップジェスチャ2250nを検出したことに応答して、デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示を、調整可能なビネットコントロール2254iの表示に置き換え、調整可能な自動視覚特性コントロール2254aの表示を停止する。図22Oでは、デバイス600は、調整可能な輝度コントロール2254c及び輝度コントロールインジケーション2254c1の表示を、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1の表示に置き換えることに関して図22Iにおいて上述したようなものと同様の技術を使用して、この置き換えを行う。図22Oにおいて、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254iの中央に対応する位置に表示する。
In FIG. 22N, the
図22Oでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250o(例えば、左向きドラッグ又はスワイプジェスチャ)を検出する。ジェスチャ2250oを検出したことに応答して、図22P〜図22Qに示すように、デバイス600は、ビネットコントロールインジケーション2254i1を、調整可能なビネットコントロール2254i上の新しい位置に動かし、図22D〜図22Fに関連して上述したようなものと類似の技術を使用して、調整された表現2230fを調整する。表現2230fは、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の新しい位置での値に対応する新しいビネット値に基づいて調整された。図22Qに示すように、表現2230fは、図22Pに関して表現2230eにおける犬の周りに表示されたビネット効果よりも、犬の周りに表示されたより顕著なビネット効果を含む。
In FIG. 22O,
図22Qに示すように、最右端のティックマーク又は最左端のティックマークは、(例えば、図22Fに表示されている最右端のティックマーク及び図22Kに表示されている最左端のティックマークとは対照的に)図22Qに表示されない。したがって、調整可能なビネットコントロール2254i上の新しい位置は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O〜図22P)に近い。調整可能なビネットコントロール2254i上の新しい位置が、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置(例えば、図22O〜図22P)に比較的近いため、デバイス600は、調整可能なビネットコントロール2254i上のビネットコントロールインジケーション2254i1の以前の位置に、ビネットリセットインジケーション2252i2を表示する。図22Qでは、ビネットコントロールインジケーション2254i1の以前の位置は、デバイス600が自動視覚特性コントロールインジケーション2254a1を、調整可能な自動視覚特性コントロール2254a上の新しい位置に(ジェスチャ2250iの大きさ及び方向に基づいて)動かした後に計算された値に対応する。いくつかの実施形態では、調整可能な自動視覚特性コントロール2254a上の自動視覚特性コントロールインジケーション2254a1を調整することにより、調整可能なビネットコントロール2254i上のビネットリセットインジケーション2252i2の位置を変更することができる。いくつかの実施形態では、ビネットリセットインジケーション2252i2により、ユーザは、自動調整アルゴリズムに基づいて計算された視覚特性の値をリセットすることができる。いくつかの実施形態では、上述の調整可能なコントロール(例えば、調整可能な自動視覚特性コントロール2254a及び調整可能な輝度コントロール2254c)に関して、リセットインジケーションはまた、ジェスチャ2250d又は2250iを検出している間に表示される。しかしながら、ジェスチャ2250d又は2250iのリフトオフを検出した後に、上述のインジケーションが最左端又は最右端のティックマークに近い位置で終了したため、リセットインジケーションは、図22F及び図22Kには表示されない。
As shown in FIG. 22Q, the rightmost tick mark or the leftmost tick mark is (for example, the rightmost tick mark displayed in FIG. 22F and the leftmost tick mark displayed in FIG. 22K. (In contrast) not displayed in Figure 22Q. Therefore, the new position on the
図22Qでは、デバイス600は、調整可能なビネットコントロール2254iに向けられたジェスチャ2250q(例えば、ジェスチャ2250oの反対方向のドラッグ又はスワイプジェスチャ)を検出する。図22Rに示すように、2250qの大きさ及び方向に基づいて、デバイス600は、ビネットリセットインジケーション2252i2が図22Qに表示された位置に、ビネットコントロールインジケーション2254i1を表示する。ビネットリセットインジケーション2252i2が表示された位置に、ビネットコントロールインジケーション2254i1が表示されると、デバイス600は、触覚出力2260aを発する。更には、ビネットコントロールインジケーション2254i1が、ビネットリセットインジケーション2252i2が図22Qで表示された位置(又は図22Oにおけるその初期位置)に表示されるため、デバイス600は、調整された表現2230e(ビネットコントロールインジケーション2254i1の現在の位置に対応する値に基づいて調整された)及びビネットコントロールインジケーション2244iを、22Oに当初表示されていたように再表示する。
In FIG. 22Q, the
図22Rでは、デバイス600は、フィルタ編集モードアフォーダンス2210cに対応する場所でのタップジェスチャ2250rを検出する。図22Sに示すように、タップジェスチャ2250rを検出したことに応答して、デバイス600は、視覚特性編集アフォーダンス2214を、フィルタ編集ツールアフォーダンス2216に置き換える。デバイス600はまた、フィルタ編集モードアフォーダンス2210cの下にモード選択インジケータ2202cを表示し、モード選択インジケータ2202cは、デバイス600が、視覚特性編集モードで動作するように構成されていることから、フィルタリング編集モードで動作するように構成されていることへと変化したことを示す。更には、タップジェスチャ2250rを検出したことに応答して、デバイス600は、ビネットコントロールインジケーション2254i1の表示を停止する。更には、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールの表示を停止する。
In FIG. 22R, the
図22Sでは、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cに対応する場所でのタップジェスチャ2250sを検出する。図22Tに示すように、タップジェスチャ2250sを検出したことに応答して、デバイス600は、ドラマチックフィルタ編集ツールアフォーダンス2216cが選択されていることを示す(例えば、「NONE」を「DRAMATIC」に置き換える)。更には、デバイス600は、調整可能なドラマチックフィルタコントロール2256c及びドラマチックフィルタコントロールインジケーション2256c1を表示する。デバイス600は、調整可能なコントロール2254a、2254c、及び/又は2254iに関連して上述したような、調整可能なドラマチックフィルタコントロール2256c(及び他の調整可能なフィルタコントロール)に向けられた入力を検出したことに応答して、同様の技術を使用する。更には、タップジェスチャ2250sを検出したことに応答して、デバイス600は、表現2230gを表示し、ここで、図22Uの表現2230eは、調整可能なドラマチックフィルタコントロール2256c上のドラマチックフィルタコントロールインジケーション2256c1の初期位置に対応する値に基づいて調整された。
In FIG. 22S, the
図22Tでは、デバイス600は、調整可能なドラマチックフィルタコントロール2256cに向けられたジェスチャ2250t(例えば、右向きドラッグ又はスワイプジェスチャ)を検出する。図22Uに示すように、ジェスチャ2250tを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。デバイス600は、ジェスチャ2250tの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ドラマチックフィルタコントロールインジケーション2256c1を、調整可能なドラマチックフィルタコントロール2256c上の新しい位置に動かす。ジェスチャ2250tの大きさ及び方向により、デバイス600に、図22Tにおける調整可能なドラマチックフィルタコントロール2256cの以前の位置よりも、調整可能なドラマチックフィルタコントロール2256cの最左端のティックマーク(例えば、最小値)により近い新しい位置に、フィルタコントロールインジケーション2256c1を表示させる。更には、デバイス600は、表現2230gの表示を、調整された表現2230hの表示に置き換え、ここで、表現2230gは、調整可能なドラマチックフィルタコントロール2256c上のフィルタコントロールインジケーション2256c1の新しい位置に対応する値に基づいて調整された。示すように、図22Uにおいて、デバイス600は、(例えば、図22Tにおける)ドラマチックフィルタコントロールインジケーション2256c1の以前の位置よりも、ドラマチックフィルタコントロールインジケーション2256c1の新しい位置がより低い値に関連付けられている(例えば、ドラマチックフィルタの最小値に対応する最左端のティックマークにより近い)ため、図22Tにおける表現2230gのドラマチックフィルタよりも、ドラマチックフィルタが少ない(例えば、水平線の数が少ない)表現2230hを表示する。更には、ドラマチックフィルタ編集ツールアフォーダンス2216cの周りには、値インジケータは表示されない。
In FIG. 22T, the
図22Uでは、デバイス600は、フィルタなし編集ツールアフォーダンス2216aに対応する場所でのタップジェスチャ2250uを表示する。図22Vに示すように、タップジェスチャ2250uを検出したことに応答して、デバイス600は、フィルタなし編集ツールアフォーダンス2216aが選択されていることを示す(例えば、「DRAMATIC」を「NONE」に置き換える)。図22Sに関連して上述したように、フィルタなし編集ツールアフォーダンス2216aが選択されている(例えば、「NONE」と示される)ため、デバイス600は、調整可能なコントロールの表示を停止する。加えて、デバイス600は、表現2230hの表示を、表現2230eの表示に置き換え、ここで、表現2230eは、任意のフィルタに基づいて調整されない(例えば、図22Vの表現2230eに表示されたフィルタを表す水平線がない)。したがって、表現2230eは、任意のフィルタを使用して、調整可能なフィルタコントロールを介して、表現2230eを調整する前に、図22Sに表示された表現と同じである。
In FIG. 22U, the
図22Vでは、デバイス600は、ポートレートメディアモード編集アフォーダンス2210aに対応する場所でのタップジェスチャ2250vを検出する。図22Wに示すように、タップジェスチャ2250vを検出したことに応答して、デバイス600は、ポートレートメディア編集モードアフォーダンス2210aの下にモード選択インジケータ2202aを表示し、フィルタ編集モードアフォーダンス2210cの下のモード選択インジケータ2202cの表示を停止する。モード選択インジケータ2202aによって示されるように、デバイス600は、ポートレート編集モードで動作するように構成され、これにより、デバイス600はまた、インジケータ領域602内にf値(例えば、数値)のインジケーションを(例えば、図8Hに開示されているのと同様の技術を使用して)提供する、f値インジケータ602eを表示する。更には、タップジェスチャ2250vを検出したことに応答して、デバイス600は、フィルタ編集ツールアフォーダンス2216を、ポートレートメディア編集ツールアフォーダンス2212に置き換える。いくつかの実施形態では、ポートレートメディア編集ツールアフォーダンス2212は、照明効果コントロール628に対応し;したがって、デバイス600は、照明効果コントロール628に関連して図6S〜図6Uにおいて上述したものと同様の技術を使用して、ポートレートメディア編集ツールアフォーダンス2212に関連する機能を実行する。
In FIG. 22V, the
図22Wに示すように、デバイス600は、自然光編集ツールアフォーダンス2212aの上に照明選択インジケータ2212a1を示し、これは、自然光編集ツールアフォーダンス2212aが選択されていることを示す。図22Sで上述したようなフィルタなし編集ツールアフォーダンス2216aと同様に、自然光編集ツールアフォーダンス2212aが選択されているため、デバイス600は、表現2230eにおいて自然光を使用して動作するように構成される。換言すれば、調整可能な美白効果は、表現2230eを調整するために使用されないため、デバイス600は、(また、図6R〜図6Qの照明効果コントロール628に関連して上述した)自然照明効果を調整するために調整可能に表示しない。図22Wでは、デバイス600は、ジェスチャ2250w(例えば、押下ジェスチャ)を検出する。
As shown in FIG. 22W, the
図22Xに示すように、デバイス600は、水平線で表示されているポートレートメディア編集ツールアフォーダンス2212の表示を、弓で表示されているポートレートメディア編集ツールアフォーダンス2212の表示に遷移させる。自然光編集ツールアフォーダンス2212aが選択されているため、自然光編集ツールアフォーダンス2212aは、弓の上部又は上部(例えば、メディア編集ユーザインタフェースの中央)に表示され、ポートレートメディア編集ツールアフォーダンス2212b〜2212eは、自然光編集ツールアフォーダンス2212aの右にカスケードダウンして表示される。図22Xでは、デバイス600は、接触(例えば、タッチ感知ディスプレイとの指接触)の中断なしで、ジェスチャ2250wの移動を検出する。
As shown in FIG. 22X, the
図22Yに示すように、ジェスチャ2250wの移動を検出しているデバイス600に応答して、デバイス600は、ポートレートメディア編集ツールアフォーダンス2212を左のある位置に動かす。ポートレートメディア編集ツールアフォーダンス2212を動かした後、スタジオ照明編集ツールアフォーダンス2212bは、弓の上部に表示され、自然光編集ツールアフォーダンス2212aは、スタジオ照明編集ツールアフォーダンス2212bの左に表示され、かつポートレートメディア編集ツールアフォーダンス2212c〜2212eは、スタジオ照明編集ツールアフォーダンス2212bの右にカスケードダウンして表示される。特定の視覚特性編集ツールアフォーダンスが中心にあるかどうかに関係なく、タップジェスチャに基づいて選択された視覚特性編集ツールアフォーダンス2214とは対照的に、ポートレートメディア編集ツールアフォーダンス2212は、デバイス600がタップジェスチャを特定のメディア編集アフォーダンスに対応する場所で検出したかどうかに関係なく、中心に選択される。いくつかの実施形態では、特定のポートレートメディア編集ツールアフォーダンスは、視覚特性編集ツールアフォーダンス2214を選択するための同様の技術を使用して、タップジェスチャを介して選択される。
As shown in FIG. 22Y, in response to the
図22Yに示すように、デバイス600は、スタジオ照明編集ツールアフォーダンス2212bの上に照明選択インジケータ2212b1を表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示す。同時に、デバイス600は、自然光編集ツールアフォーダンス2212aの上に、照明選択インジケータ2212a1の表示を停止する。スタジオ照明編集ツールアフォーダンス2212bが選択されているため、デバイス600は、スタジオ照明コントロールインジケーション2252b1を有する調整可能なスタジオ照明コントロール2252bを表示する。図22Wにおいて自然光編集ツールアフォーダンス2212aが選択された場合とは対照的に、スタジオ照明編集ツールアフォーダンス2212bであるため、デバイス600は、インジケータ領域602内に照明状態インジケータ602fを表示する。照明状態インジケータ602fは、メディアをキャプチャする際に使用/適用される照明効果の現在値のインジケーションを含む。照明状態インジケータ602fは、図6R〜図6Uに関連して上述したようなものと同様の技術を使用して、以下の図で動作する。照明状態インジケータ602fは、充填されている(例えば、黒として示される)照明状態インジケータ602fを作り上げている9つの電球の約半分及び充填されていない(例えば、白として示される)9つの電球の半分で表示される。充填された9つの電球の半分を示すことは、ほぼ50%のスタジオ照明値に等しい位置で表示されているスタジオ照明コントロールインジケーション2252b1の位置に対応する。コントロール領域606において、デバイス600はまた、照明インジケータ2262aを表示し、これは、スタジオ照明編集ツールアフォーダンス2212bが表示されることを示す。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な照明コントロールを調整することに向けられたジェスチャを受信すると、照明値(例えば、スタジオ照明値)に基づいて、表現2230eを調整するように構成される。
As shown in FIG. 22Y, the
図22Yでは、デバイス600は、ジェスチャ2250wのリフトオフを検出する。図22Zに示すように、ジェスチャ2250wのリフトオフを検出したことに応答して、デバイス600は、水平線におけるポートレートメディア編集ツールアフォーダンス2212の表示を、ポートレートメディア編集ツールアフォーダンス2212の表示に再表示する。図22Yでは、スタジオ照明編集ツールアフォーダンス2212bが選択されているため、スタジオ照明編集ツールアフォーダンス2212bは、メディア編集ユーザインタフェースの中心に表示される。更には、「STUDIO」は、スタジオ照明編集ツールアフォーダンス2212bが選択されていることを示すために表示される。いくつかの実施形態では、スタジオ照明編集ツールアフォーダンス2212bは、調整可能な照明効果コントロール666として同一の調整可能なコントロールであり、デバイス600は、上の図6S〜図6Uで論じられたように、デバイス600を使用して、調整可能な照明効果コントロール666を介して機能を行う、スタジオ照明編集ツールアフォーダンス2212bを介して、機能を行うために同様の技術を使用する。
In FIG. 22Y, the
図22Zでは、デバイス600は、調整可能なスタジオ照明コントロール2252bに向けられたジェスチャ2250z(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22AAに示すように、ジェスチャ2250zを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。図22AAに示すように、デバイス600は、スタジオ照明コントロールインジケーション2252b1を、調整可能なスタジオ照明コントロール2252b上の新しい位置(例えば、最右端のティックマーク)に動かす。新しい位置(例えば、最右端のティックマーク)は、スタジオ照明調整値の最大値に対応する。その結果、デバイス600は、表現2230iを表示し、ここで、表現2230eは、調整可能なスタジオ照明コントロール2252b上のスタジオ照明コントロールインジケーション2252b1の位置に対応する新しい値(例えば、最大スタジオ照明調整)に基づいて調整された。例えば、表現2230iは、表現2230eよりも犬を取り囲む光がより多い。更には、デバイス600はまた、その最大値に設定されている調整可能なスタジオ照明コントロール2252bに対応する、充填されている9つの電球全てを示すように、照明状態インジケータ602fを更新する。特に、デバイス600は、f値インジケータ602eに、値1.4を表示し続ける。図2AAでは、デバイス600は、f値インジケータ602eに対応する場所でのタップジェスチャ2250aaを検出する。図22ABに示すように、タップジェスチャ2250aaを検出したことに応答して、デバイス600は、調整可能なスタジオ照明コントロール2252b及びスタジオ照明コントロールインジケーション2252b1の表示を、調整可能なスタジオ照明深度コントロール2252bb及びスタジオ照明深度コントロールインジケーション2252bb1の表示に置き換える。図22ABでは、スタジオ照明深度コントロールインジケーション2252bb1は、調整可能なスタジオ照明深度コントロール2252bb上の、f値インジケータ602e(例えば、1.4)として表示された深度値に対応する位置に表示される。更には、デバイス600はまた、照明インジケータ2262aの表示を、深度インジケータ2262bの表示に置き換える。照明インジケータ2262aが表示されるとき、デバイス600は、調整可能な深度コントロールに向けられたジェスチャを受信すると、深度値(例えば、スタジオ照明深度値)に基づいて、表現2230iを調整するように構成される。
In FIG. 22Z,
図22ABでは、デバイス600は、調整可能なスタジオ照明深度コントロール2252bbに向けられたジェスチャ2250ab(例えば、左向きドラッグ又はフリックジェスチャ)を検出する。図22ACに示すように、ジェスチャ2250abを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。図22ACに示すように、デバイス600は、スタジオ照明深度コントロールインジケーション2252bb1を、調整可能なスタジオ照明深度コントロール2252bb上の新しい位置(例えば、最右端のティックマークに向かって)に動かす。その結果、デバイス600は、表現2230jを表示し、ここで、図22ABの表現2230iは、調整可能なスタジオ照明深度コントロール2252bb上のスタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値に基づいて調整された。例えば、表現2230jは、表現2230iよりも視覚的により深度が高い(例えば、暗色化すされた木及びテーブル)。更には、デバイス600はまた、f値インジケータ602eを、スタジオ照明深度コントロールインジケーション2252bb1の位置に対応する新しい値(例えば、3.4)に更新する。特に、デバイス600は、図22ABに表示されたように、照明状態インジケータ602fを表示し続ける。図22ACでは、デバイス600は、完了アフォーダンス1036cに対応する場所でのタップジェスチャ2250acを検出する。図22ADに示すように、タップジェスチャ2250acを検出したことに応答して、デバイス600は、表現2230jとともにメディアビューワインタフェースを表示する。デバイス600は、表現2230jを保存することによって、以前に表示表現2230aに作成された修正を保存する。図22AE〜図22ALは、アニメーション化された画像メディア(例えば、図22AE〜図22AH)及びビデオメディア(例えば、図22AI〜図22AL)を編集するように構成されているデバイス600を示す。具体的には、図22AE〜図22ALは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。
In FIG. 22AB,
図22AEに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2230kを表示する。表現2280kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する。アニメーション化された画像メディアアフォーダンス2220は、アニメーション化された画像メディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、サムネイル表現2220k)を含む。図22AEでは、サムネイル表現2220kが選択されているため、サムネイル表現2220kは、表現2280kに対応し、ここで、表現2280kは、サムネイル表現2220kの拡大バージョンである。図22AEでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250aeを検出する。図22AFに示すように、タップジェスチャ2250aeを検出したことに応答して、デバイス600は、アニメーション化された画像メディア内の表現2280k(又はサムネイル表現2220k)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、視覚特性編集ツールアフォーダンス2214に置き換え、視覚特性編集モードアフォーダンス2210bの下にモード選択インジケータ2202bを、図22Cに関連して論じられるものと同様の技術を使用して表示する。図22AFでは、デバイス600は、自動視覚特性編集ツールアフォーダンス2214aに対応する場所でのタップジェスチャ2250afを検出する。
As shown in FIG. 22AE, the
図22AGでは、タップジェスチャ2250afを検出したことに応答して、デバイス600は、メディア編集ユーザインタフェースの中心に、自動視覚特性編集ツールアフォーダンス2214aを表示する(図22Iに示すように)。デバイス600は、調整可能な自動視覚特性コントロール2254a及び自動視覚特性コントロールインジケーション2254a1を更に表示する。更には、タップジェスチャ2250afを検出したことに応答して、デバイス600は、(例えば、露出値インジケータ2244bが周辺部露出編集ツールアフォーダンス2214bの周囲に表示されることによって示されるように)図22Iに関連して上述したようなものと類似の技術を使用して、他の視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整する。更に、タップジェスチャ2250agを検出したことに応答して、デバイス600は、表現2280kを、表現2280lに置き換える。デバイス600は、視覚特性編集ツールアフォーダンス2214に対応する調整された現在値に基づいて、表現2280lを表示する。図22AGでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ag(例えば、右向きドラッグジェスチャ)を検出する。
In FIG. 22AG, in response to detecting the tap gesture 2250af, the
図22AHに示すように、ジェスチャ2250agを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AGのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250agを検出したことに応答して、デバイス600は、表現2280lを、表現2280lに置き換える。表現2280lは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2280mは、図22AGにおいて表現2280lが対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図22AFに示すように、表現2280kを表示している間に、デバイス600が視覚特性編集ツールアフォーダンス2214の1つ以上の現在値を調整して、表現2280lを表示したが、表現2280mはまた、視覚特性編集ツールアフォーダンス2214の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の視覚特性に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。
As shown in FIG. 22AH, in response to detecting the gesture 2250ag, the
上述のように、図22AI〜図22ALは、ビデオメディアを編集するように構成されたデバイス600を示す。図22AIに示すように、デバイス600は、キャプチャされたビデオメディアの表現2282nを表示する。表現2282nがビデオメディアの表現であるため、デバイス600は、ビデオメディア編集モードアフォーダンス2210fを表示する。ビデオメディア編集モードアフォーダンス2210fの下のモード選択インジケータ2202aによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、ビデオメディアアフォーダンス2222を表示する。ビデオメディアアフォーダンス2222は、ビデオメディア内の異なる時間に対応するコンテンツのフレームのサムネイル表現(例えば、表現2222n)を含む。したがって、ビデオメディアアフォーダンス2222は、アニメーション化された画像メディアアフォーダンス2220と同様である。サムネイル表現2220nが選択されているため、サムネイル表現2220nは、サムネイル表現2220nの拡大バージョンである、表現2282nに対応する。図22AIでは、デバイス600は、視覚特性編集モードアフォーダンス2210bに対応する場所でのタップジェスチャ2250aiを検出する。
As mentioned above, FIGS. 22AI to 22AL show a
図22AJに示すように、タップジェスチャ2250aiを検出したことに応答して、デバイス600は、ビデオメディア内の表現2282n(又はサムネイル表現2220n)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。特に、デバイス600は、デバイスがビデオ編集モードで動作するように構成されるとき、及びデバイスがアニメーション化された画像メディアモードで動作するように構成される(例えば、図22AF)とき、スクラバ2240を表示する。図22AJでは、デバイス600は、輝度編集ツールアフォーダンス2214cに対応する場所でのタップジェスチャ2250ajを検出する。図22AKでは、タップジェスチャ2250ajを検出したことに応答して、デバイス600は、自動的に(追加のユーザ入力なしで)動き、図22Cにおいて上述のように、同様の技術を使用して、視覚特性編集ツールアフォーダンス2214a〜2214cを左にスライドして、メディア編集ユーザインタフェースの水平中心に輝度編集ツールアフォーダンス2214cを表示する。デバイス600はまた、自動的に(追加のユーザ入力なしで)(例えば、調整可能な輝度コントロール2254cに向けられたジェスチャなしで)、調整可能な輝度コントロール2254c上の位置に輝度コントロールインジケーション2254c1を表示する。更に、タップジェスチャ2250ajを検出したことに応答して、デバイス600は、表現2282nを、表現2282oに置き換える。デバイス600は、(例えば、輝度コントロールインジケーション2254c1の位置に対応する)調整可能な輝度コントロール2254cの現在値に基づいて、表現2282oを表示する。図22AKでは、デバイス600は、スクラバ2240に向けられたジェスチャ2250ak(例えば、右向きドラッグジェスチャ)を検出する。
As shown in FIG. 22AJ, in response to the detection of the tap gesture 2250ai, the
図22ALに示すように、ジェスチャ2250akを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図22AKのスクラバインジケーションコントロール2240aの位置の右にある新しい位置に動かす。更に、ジェスチャ2250akを検出したことに応答して、デバイス600は、表現2282oを、表現2282pに置き換える。表現2282pは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のビデオメディアのフレームのうちの1つを示す。したがって、表現2282pは、図22AKにおいて表現2282oが対応するビデオメディア内の時間とは異なる、ビデオメディア内の時間に対応する。図22ALに示すように、表現2282nを表示している間に、デバイス600が現在の輝度値を調整して、表現2282oを表示したが、表現2282pはまた、調整された輝度値に基づいて調整された。したがって、(アニメーション化された画像メディアのように)ビデオメディア内の特定の時点での表現のうちの1つを調整することはまた、ビデオメディア内の異なる時間に対応する他の表現を調整する。特に、図22AKにおいて、デバイス600は、デバイス600の底縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、デバイス600の底縁部付近に、これらのユーザインタフェース要素を表示することにより、これらのユーザインタフェース要素が、デバイス600の一部のユーザの親指が届く範囲(例えば、デバイスがその手のみで保持されているときのデバイスを保持している手の親指が届く範囲)内にあることができる。
As shown in FIG. 22AL, in response to detecting the gesture 2250ak, the
図22ALでは、デバイス600は、デバイス600の時計方向回転を検出する。図22AMに示すように、時計方向回転2250alを検出したことに応答して、デバイス600は、縦向きのメディア編集ユーザインタフェースの表示を、横向きのメディア編集ユーザインタフェースの表示に遷移させる。図22AMに示すように、メディア編集ユーザインタフェースを横向きに表示するときに、デバイス600は、デバイス600の右縁部付近に、編集モードアフォーダンス2210、調整可能な輝度コントロール2254c、及び視覚特性編集ツールアフォーダンス2214を表示する。いくつかの実施形態では、メディアユーザインタフェースが横向きにある間に、デバイス600の右縁部付近に、これらのユーザインタフェース要素を表示することにより、メディア編集ユーザインタフェースを回転するときに、デバイス600のいくらかのユーザの親指が届く範囲内に、ユーザ要素を維持する。
In FIG. 22AL, the
図23A〜図23Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2300は、表示デバイス(例えば、タッチ感知ディスプレイ;112)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
23A-23B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments.
後述するように、方法2300は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを介して、視覚メディア(例えば、画像、ビデオのフレーム)の表現(例えば、2230a〜2230p)と、視覚メディアの表現(例えば、2230a〜p)を編集する第1の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する)第1のアフォーダンス(例えば、2210〜2216、2252〜2256)と、視覚メディアの表現(例えば、2230a〜2230p)を編集する第2の編集可能パラメータ(例えば、メディア編集パラメータ(例えば、2214)(例えば、自動(例えば、2214a)、露出(例えば、2214b)、ブリリアンス、ハイライト、影、コントラスト、輝度(例えば、2214c)、ブラックポイント、彩度、自然な彩度、温度、色合い、鮮明度、明瞭度、ノイズ低減、ビネット、色、白黒、照明パラメータ(例えば、2212)(例えば、自然光、スタジオ光、輪郭光、舞台光、モノ舞台光)、フィルタリング(例えば、2216)パラメータ(例えば、オリジナル(例えば、2216a)、ビビッド、ビビッドウォーム、ビビッドクール、ドラマチック(例えば、2216c)、ドラマチックウォーム、ドラマチッククール、モノ、シルバートーン、ノワール)、クロッピングパラメータ(例えば、2218)、補正パラメータ(例えば、水平視点補正、垂直視点補正、水平線補正)))に対応する(例えば、表す、示す、制御する、一部である)第2のアフォーダンス(例えば、2210〜2216)と、を含む、メディア(例えば、画像、ビデオ)編集ユーザインタフェースを表示する(2302)。
The electronic device (eg, 600) edits the representation (eg, 2230a-2230p) of the visual media (eg, image, video frame) and the representation of the visual media (eg, 2230a-p) via the display device. First editable parameters (eg, media edit parameters (eg, 2214)) (eg, automatic (eg, 2214a), exposure (eg, 2214b), brilliance, highlights, shadows, contrast, brightness (eg, 2214c)). , Black point, saturation, natural saturation, temperature, tint, sharpness, clarity, noise reduction, vignette, color, black and white, lighting parameters (eg 2212) (eg natural light, studio light, contour light, stage Light, mono stage light), filtering (eg 2216) parameters (eg original (eg 2216a), vivid, vivid warm, vivid cool, dramatic (
メディア編集ユーザインタフェースを表示している間に、電子デバイスは、第1のアフォーダンス(例えば、2250c、2250h)の選択に対応する第1のユーザ入力(例えば、アフォーダンス上でのタップ入力)を検出する(2304)。 While displaying the media editing user interface, the electronic device detects a first user input (eg, tap input on the affordance) corresponding to the selection of the first affordance (eg, 2250c, 2250h). (2304).
いくつかの実施形態では、第1のユーザ入力(例えば、2250c、2250h、2250n)は、第1のアフォーダンス(2214a、2214c、2214n)上でのタップ入力である。 In some embodiments, the first user input (eg, 2250c, 2250h, 2250n) is a tap input on the first affordance (2214a, 2214c, 2214n).
第1のアフォーダンスの選択に対応する第1のユーザ入力を検出したことに応答して、電子デバイスは、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所(例えば、第1及び第2のアフォーダンスに隣接する場所(第1及び第2のアフォーダンスの下の場所))に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、グラフィカル制御要素(例えば、スライダ))を表示する(2306)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの場所にスライドする(例えば、図22C〜図22D)。 In response to detecting the first user input corresponding to the first affordance selection, the electronic device is placed on the display device at its respective location within the media editing user interface (eg, first and second). Adjustable controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust the first editable parameters to locations adjacent to the affordances (locations below the first and second affordances) (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c). For example, a graphical control element (eg, a slider)) is displayed (2306). In some embodiments, the adjustable control slides from the first and second affordances or from the left / right side of the display device to their respective locations (eg, FIGS. 22C-22D).
第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第1の編集可能パラメータが選択されている間に(例えば、2204)(例えば、図22C〜図22D)(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール上のある対応する場所(例えば、ティックマーク)から調整可能なコントロール上の別の対応する(respectable)場所へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2308)。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 Adjusting the First Editable Parameter While displaying the adjustable control and while the first editable parameter is selected (eg, 2204) (eg, FIGS. 22C-22D) (eg, FIGS. 22C-22D). For example, the electronic device may be pressed to the center center of the media user interface or displayed in a different color (eg, not grayed out), the electronic device may be adjustable to adjust the first editable parameter. First gestures (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed at various controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (eg, drag gestures (eg, adjustable). Detects an indication (eg, dragging a slider bar) from one corresponding location on a control (eg, a tick mark) to another (eg, a slider bar) on an adjustable control (2308). .. In some embodiments, multiple affordances are displayed when multiple conditions are met. By providing additional control options (eg, sliders) without cluttering the UI with the additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device / device) is enhanced. By assisting the user in providing proper input when interacting with and reducing user errors), and by allowing the user to use the device faster and more efficiently. , Reduces device power usage and improves battery life.
第1の編集可能パラメータが選択されている間に、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応答して(2310)、電子デバイスは、第1のジェスチャに従って(例えば、第1のジェスチャの大きさに従って)第1の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22E〜図22F)(2312)。 A first gesture directed at an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the first editable parameter while the first editable parameter is selected. In response to detecting (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) (2310), the electronic device follows the first gesture (eg, according to the size of the first gesture). Adjust the current value of the editable parameter of (eg, display a slider bar on the slider at a new position) (eg, FIGS. 22E-22F) (2312).
いくつかの実施形態では、第1の編集可能パラメータが選択されている間に(2204a、2204c、2204i)、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第1のジェスチャ(例えば、2250d、2250i、2250o、2250t、2250z、2250ab)を検出したことに応答して(2310)、電子デバイスは、視覚メディアの表現の表示を、第1の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(例えば、2230b、2230e)に置き換える(2314)(例えば、編集可能パラメータがコントラストである場合、(例えば、第1のジェスチャの大きさによって現在調整された)第1の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ないコントラストを有する)。調整可能なコントロールの値を変更したことに応答して、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, adjustable controls (eg, 2252b, 2252bb, 2254a) that adjust the first editable parameter while the first editable parameter is selected (2204a, 2204c, 2204i). In response to detecting the first gesture (eg, 2250d, 2250i, 2250o, 2250t, 2250z, 2250ab) directed at 2254c, 2254f, 2256c) (2310), the electronic device is a representation of the visual media. Replace the display with an adjusted representation of the visual media (eg, 2230b, 2230e) adjusted based on the adjusted current value of the first editable parameter (2314) (eg, the editable parameter is contrast). If, the representation adjusted based on the current value of the first editable parameter (for example, currently adjusted by the magnitude of the first gesture) is more than the representation of the visual media initially displayed. Or has less contrast). By displaying the adjusted representation in response to changing the value of the adjustable control, it provides the user with feedback on the current effect of the parameter on the captured media representation, allowing the user to make adjustments. When deciding to accept, it provides the user with visual feedback that the action associated with the adjustable control is taking place. Providing improved visual feedback to the user enhances the usability of the device and allows the user to provide a user-device interface (eg, to provide appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.
いくつかの実施形態では、第1の編集可能パラメータは、自動調整編集可能パラメータである(例えば、電子デバイスが自動調整アフォーダンス(例えば、第1の編集可能パラメータアフォーダンス(例えば、2214a))の選択、又は自動調整編集可能パラメータを調整する調整可能なコントロール(例えば、2254a)の値の変化を検出するとき、電子デバイスは、他の編集可能(edible)パラメータ(例えば、コントラスト、色合い、彩度)の値を計算し、他の編集可能パラメータの現在値を自動的に更新する)(例えば、22H〜22K)。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第2の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)を含む複数の編集可能パラメータの現在値を調整することを含む。操作を行うために必要な入力の数(例えば、画像の複数の編集可能パラメータを調整する)が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first editable parameter is an auto-adjustable editable parameter (eg, the electronic device selects an auto-adjustable affordance (eg, a first editable parameter affordance (eg, 2214a)), Alternatively, when detecting a change in the value of an adjustable control (eg, 2254a) that adjusts an auto-adjustable editable parameter, the electronic device may have other editable parameters (eg, contrast, tint, saturation). Calculate the value and automatically update the current values of other editable parameters) (eg 22H-22K). In some embodiments, the electronic device adjusting the current value of the first editable parameter according to the first gesture may cause the second editable parameter (eg, 2244a, 2244b, 2244c of FIGS. 22H-22K). ) Includes adjusting the current values of multiple editable parameters. By reducing the number of inputs required to perform an operation (eg, adjusting multiple editable parameters of an image), the device is more user-friendly and the user-device interface (eg, manipulating the device /) To be more efficient (by assisting the user in providing proper input when interacting with the device and reducing user error), and in addition to allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.
いくつかの実施形態では、メディア編集ユーザインタフェースは、複数の編集可能パラメータ現在値インジケータ(例えば、2244a〜2244i)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含み、複数の編集可能パラメータ現在値インジケータは、視覚メディアの表現の第2の編集可能パラメータに対応する値インジケータ(例えば、第2の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、視覚メディアの表現の第3の編集可能パラメータに対応する値インジケータ(例えば、第3の編集可能パラメータに対応する値インジケータは、選択されると、第2の編集可能パラメータを調整するコントロールを表示するアフォーダンスの一部として、又はアフォーダンスに隣接して表示される)と、を含む。いくつかの実施形態では、電子デバイスが複数の編集可能パラメータの現在値を調整することは、電子デバイスが第3の編集可能パラメータの現在値を調整することと、第2の編集可能パラメータの調整された現在値に基づいて、第2の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、第3の編集可能パラメータの調整された現在値に基づいて、第3の編集可能パラメータ(例えば、図22H〜図22Kの2244a、2244b、2244c)に対応する値インジケータを更新することと、を含む。いくつかの実施形態では、現在値インジケータは、アフォーダンスの周囲にある(例えば、第1の進度インジケータは、第1のアフォーダンスの周囲にあり、第2の進度インジケータは、第2のアフォーダンスの周囲にある)。いくつかの実施形態では、第1の編集可能パラメータのアフォーダンスの一部として、又はアフォーダンスに隣接して表示される第1の編集可能パラメータの調整された現在値に基づいて更新される第1の編集可能パラメータに対応する値インジケータが存在する。(例えば、図22K)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。更には、自動調整アルゴリズムにおける変化に基づいて値インジケータを自動的に更新することにより、ユーザは、自動調整アルゴリズムが特定の編集可能パラメータの特定の値をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the media editing user interface is around multiple editable parameter current value indicators (eg, 2244a-2244i) (eg, around the affordance corresponding to editable parameters that are updated based on the value of the parameter. Multiple editable parameter current value indicators, including graphical boundaries), are selected value indicators that correspond to the second editable parameter of the visual media representation (eg, the value indicator that corresponds to the second editable parameter). (Displayed as part of the affordance that displays the control that adjusts the second editable parameter, or adjacent to the affordance) and the value indicator that corresponds to the third editable parameter of the visual media representation. (For example, the value indicator corresponding to the third editable parameter, when selected, is displayed as part of the affordance that displays the control that adjusts the second editable parameter, or adjacent to the affordance). And, including. In some embodiments, the electronic device adjusting the current values of the plurality of editable parameters means that the electronic device adjusts the current values of the third editable parameter and adjusts the second editable parameter. The value indicators corresponding to the second editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) were updated and the third editable parameter was adjusted based on the current value. It includes updating the value indicators corresponding to the third editable parameter (eg, 2244a, 2244b, 2244c in FIGS. 22H-22K) based on the current value. In some embodiments, the current value indicator is around the affordance (eg, the first progress indicator is around the first affordance and the second progress indicator is around the second affordance. be). In some embodiments, the first editable parameter is updated based on the adjusted current value of the first editable parameter, which is displayed as part of the affordance of the first editable parameter or adjacent to the affordance. There is a value indicator corresponding to the editable parameter. (For example, FIG. 22K). By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display an adjustable representation. Furthermore, by automatically updating the value indicator based on changes in the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed a particular value for a particular editable parameter. be able to. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールに向けられた第1のジェスチャを検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、図22E、図22J、図22Pの2254a、2254c、及び2254i)を視覚的に強調する(例えば、グレーアウトされずに表示する、調整可能な入力コントロールが、焦点が当たって表示されている間に焦点から外れたものとしてユーザインタフェースの一部を表示する、異なる色で表示する又は拡大する)。いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、2250d、2250i、2250o)のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調する。入力を調整可能なコントロールに提供している間に調整可能なコントロールを強調することにより、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えることを判定することができ、かつユーザが調整可能なコントロールの値を正確に設定する変更を増加させることによって、ユーザが調整可能なコントロールを特定の値に設定することによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device adjusts the first editable parameter while detecting the first gesture directed at the adjustable control that adjusts the first editable parameter. Adjustable input controls that visually emphasize possible controls (eg, 2254a, 2254c, and 2254i in FIGS. 22E, 22J, 22P) (eg, display without graying out) are focused and displayed. Show parts of the user interface as out of focus while being displayed, displayed in different colors, or magnified). In some embodiments, the electronic device visually emphasizes the adjustable control before detecting the lift-off of the first gesture (eg, 2250d, 2250i, 2250o). By emphasizing the adjustable control while providing the input to the adjustable control, the user can determine that the current state of operation affects the adjustable control, and the user Accurately sets the value of the adjustable control By increasing the change, the user sets the adjustable control to a specific value, thereby reducing errors. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の編集可能パラメータは、視覚フィルタ効果強度(例えば、フィルタ効果の強度(例えば、クール、ビビッド、ドラマチック))(例えば、図22T〜図22Vの2216a〜2216d)である。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが視覚メディアの表現(例えば、2230g及び2230h)の表示を、フィルタ効果強度の現在値に基づいて調整されている視覚メディアの表現(例えば、フィルタされた表現)に置き換えることを更に含む。
In some embodiments, the first editable parameter is the visual filter effect intensity (eg, filter effect intensity (eg, cool, vivid, dramatic)) (eg, FIGS. 22T-
いくつかの実施形態では、アスペクト比アフォーダンス(例えば、上部のボタン)は、スライダを有する。いくつかの実施形態では、電子デバイスは、ユーザインタフェース要素(例えば、スライダ及びオプション)を、親指が届くように異なるデバイス上で異なるように表示する。いくつかの実施形態では、視覚メディアのフレームとアニメーション化された画像メディアとの間をナビゲーションするキーフレームは、同じである。 In some embodiments, the aspect ratio affordance (eg, top button) has a slider. In some embodiments, the electronic device displays user interface elements (eg, sliders and options) differently on different devices so that the thumb can reach them. In some embodiments, the keyframes that navigate between the frames of the visual media and the animated image media are the same.
表示デバイス上に、第1の編集可能パラメータを調整する調整可能なコントロールを表示している間に、電子デバイスは、第2のアフォーダンス(例えば、2250c、2250h)(例えば、図22N)の選択に対応する第2のユーザ入力(例えば、アフォーダンス上でのタップ入力)を検出する(2316)。 While displaying an adjustable control that adjusts the first editable parameter on the display device, the electronic device selects a second affordance (eg, 2250c, 2250h) (eg, FIG. 22N). Detect the corresponding second user input (eg, tap input on affordances) (2316).
いくつかの実施形態では、第2のユーザ入力は、第2のアフォーダンス(2214a、2214c、2214n)上でのタップ入力(例えば、2250c、2250h、2250n)である。 In some embodiments, the second user input is a tap input (eg, 2250c, 2250h, 2250n) on the second affordance (2214a, 2214c, 2214n).
第2のアフォーダンス(2214a、2214c、2214n)の選択に対応する第2のユーザ入力(例えば、タップ)入力(例えば、2250c、2250h、2250n)を検出したことに応答して、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所(例えば、第1の及び第2のアフォーダンスに隣接する場所(第1の及び第2のアフォーダンスの下の場所))に、第2の編集可能パラメータ(例えば、グラフィカル制御要素(例えば、スライダ))を調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を表示する(2318)。いくつかの実施形態では、調整可能なコントロールは、第1及び第2のアフォーダンスから、又は表示デバイスの左側/右側からそれぞれの場所にスライドする。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプション(例えば、スライダ)を提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a second user input (eg, tap) input (eg, 2250c, 2250h, 2250n) corresponding to the selection of the second affordance (2214a, 2214c, 2214n), the electronic device media. A second editable parameter (eg, graphically) at each location in the edit user interface (eg, where it is adjacent to the first and second affordances (where it is below the first and second affordances)). Adjustable controls (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjust control elements (eg, sliders) are displayed (2318). In some embodiments, the adjustable control slides from the first and second affordances or from the left / right side of the display device to their respective locations. In some embodiments, multiple affordances are displayed when multiple conditions are met. By providing additional control options (eg, sliders) without cluttering the UI with the additional controllers displayed, device usability is enhanced and the user-device interface (eg, manipulating the device / device) is enhanced. By assisting the user in providing proper input when interacting with and reducing user errors), and by allowing the user to use the device faster and more efficiently. , Reduces device power usage and improves battery life.
いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、第1の静的部分(例えば、スライダのティックマーク(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)(例えば、スライダのフレーム(例えば、ティックマーク、スライダ範囲、色))と、第1の可変部分(例えば、現在値のインジケーション(例えば、スライダバー))(例えば、インジケーション2252b1、2252bb1、2254a1−i1、2256c1)と、を含む。いくつかの実施形態では、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2254)は、第1の静的部分(例えば、スライダのフレーム(例えば、ティックマーク、スライダの範囲、色))と、第2の可変部分(例えば、インジケーション2252b1、2252bb1、2254a1−i1、2256c1)(例えば、現在値のインジケーション(例えば、スライダバー))と、を含む。いくつかの実施形態では、第2の可変部分は、第1の可変部分とは異なる。いくつかの実施形態では、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に表示され、第2の編集可能パラメータを調整する調整可能なコントロールは、電子デバイスが、表示デバイス上に、メディア編集ユーザインタフェース内のそれぞれの場所での第1の静的部分の表示を維持すること(例えば、調整可能なコントロールの1つ以上の他の部分が維持及び/又は更新される(例えば、値インジケータが新しい値を反映するように更新される)間、調整可能なコントロールの1つ以上の部分を維持すること(例えば、スライダの表示された位置及びフレーム(例えば、ティックマーク)は、表示され続ける))(例えば、スライダの表示は、複数の編集動作の間に維持される)(例えば、図22H〜図22I、図22N〜図22Oのインジケーション2252b1、2252bb1、2254a1〜i1、2256c1)を含む。いくつかの実施形態では、第2の可変部分が表示されると、第1の可変部分は、表示を停止されるか、又は第2のインジケーションの表示を、第1のインジケーションの表示に置き換える。いくつかの実施形態では、第1及び第2の可変位置は、スライダ上の異なる位置にある。いくつかの実施形態では、第1及び第2の可変部分は、スライダ上で同じ位置にある。いくつかの実施形態では、第1及び第2の可変部分は、第1及び第2の値(例えば、第1のタイプ(例えば、スズ(tin))の値は、第2のタイプ(例えば、コントラスト)の値とは異なる)である間、スライダ上の同じ位置に表示される。いくつかの実施形態では、第1の値及び第2の値は、異なるタイプの値である。いくつかの実施形態では、電子デバイスは、第1の編集パラメータに対応する第1の値の第1の可変部分の表示を置き換え、調整可能なコントロール上の第2の編集パラメータに対応する第2の値の第2の可変部分を表示する。2つの調整可能なコントロールの間で切り替えるとき、調整可能なコントロールの静的部分を維持することにより、UI上に表示される要素の変化を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the adjustable controls that adjust the first editable parameter (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) are the first static part (eg, the tick mark on the slider). (For example, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) (eg, slider frame (eg, tick mark, slider range, color)) and a first variable portion (eg, current value indication (eg, eg). , Slider bar)) (eg, indications 2252b1, 2252bb1, 2254a1-i1, 2256c1), and in some embodiments, adjustable controls that adjust the second editable parameter (eg, 2254). A first static part (eg, slider frame (eg, tick mark, slider range, color)) and a second variable part (eg, indications 2252b1, 2252bb1, 2254a1-i1, 2256c1) ( For example, it includes an indication of the current value (eg, a slider bar). In some embodiments, the second variable portion is different from the first variable portion. In some embodiments, the electron. The device is displayed at each location within the media editing user interface, and the adjustable control that adjusts the second editable parameter is the electronic device on the display device at each location within the media editing user interface. Maintaining the display of the first static part of (eg, one or more other parts of the adjustable control are maintained and / or updated (eg, the value indicator is updated to reflect the new value) While maintaining one or more parts of the adjustable control (eg, the displayed position and frame of the slider (eg, tick marks) will continue to be displayed)) (eg, the display of the slider (For example, the indications 2252b1, 2252bb1, 2254a1 to i1, 2256c1 of FIGS. 22H-22I, 22N-22O). When the second variable portion is displayed, the first variable portion either stops displaying or replaces the display of the second indication with the display of the first indication. In some embodiments. , 1st and 2nd variable positions are on the slider It is in a different position. In some embodiments, the first and second variable portions are in the same position on the slider. In some embodiments, the first and second variable portions have first and second values (eg, first type (eg, tin) values) of the second type (eg, tin). It is displayed in the same position on the slider while it is different from the value of Contrast). In some embodiments, the first value and the second value are different types of values. In some embodiments, the electronic device replaces the display of the first variable portion of the first value corresponding to the first editing parameter and corresponds to the second editing parameter on the adjustable control. Display the second variable part of the value of. When switching between two adjustable controls, keeping the static part of the adjustable control allows the user to set different editable parameters while simultaneously minimizing changes in the elements displayed on the UI. By doing so, it provides the user with more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)及び第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)は、同じ相対位置に調整されると(例えば、第1の編集可能パラメータを調整する調整可能なコントロール及び第2の編集可能パラメータを調整する調整可能なコントロールは、中央値、最大値及び/又は最小値を調整すると、同じ外観を有する)(例えば、図22H〜図22I;図22N〜図22O)、1つ以上の視覚的特徴(例えば、スライダ上のティックマーク)を共有する。同じ相対位置で視覚的特徴を共有する調整可能なコントロールを提供することにより、UI上に表示される要素の変化(例えば、要素及び/又は要素の表現の位置の変化)を同時に最小化しながら、ユーザが異なる編集可能パラメータを設定できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, adjustable controls that adjust the first editable parameters (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) and adjustable controls that adjust the second editable parameters (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c). For example, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) adjust to the same relative position (eg, adjust the adjustable control that adjusts the first editable parameter and the second editable parameter). Adjustable controls have the same appearance when adjusted for median, maximum and / or minimum values (eg, FIGS. 22H-22I; 22N-22O) and one or more visual features (eg, FIG. 22N-22O). , Tick marks on the slider) to share. By providing adjustable controls that share visual features in the same relative position, while simultaneously minimizing changes in the elements displayed on the UI (eg, changes in the position of the element and / or the representation of the element). It provides the user with additional control of the device by allowing the user to set different editable parameters. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
第2の編集可能パラメータを調整する調整可能なコントロールを表示している間に、及び第2の編集可能パラメータが選択されている間に(例えば、メディアユーザインタフェースの中央の中心に押圧されて表示されるか、又は異なる色(例えば、グレーアウトされていない)で表示される)、電子デバイスは、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)(例えば、ドラッグジェスチャ(例えば、調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)上のある対応する場所(例えば、ティックマーク)から調整可能なコントロール上の別の対応する(respectable)場所へとインジケーション(例えば、スライダバー)をドラッグする))を検出する(2320)。 Adjusting the Second Editable Parameter While displaying the adjustable control and while the second editable parameter is selected (eg, pressed to the center center of the media user interface) A second gesture (eg, 2250d) directed at an adjustable control that adjusts the second editable parameter, either done or displayed in a different color (eg, not grayed out). , 2250i, 2250o) (eg, on a control that can be adjusted from a corresponding location (eg, tick mark) on a drag gesture (eg, an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c)). (Drag an indication (eg, a slider bar) to another respectable location in the)) (2320).
第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロール(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)に向けられた第2のジェスチャ(例えば、2250d、2250i、2250o)を検出したことに応答して(2322)、電子デバイスは、第2のジェスチャに従って(例えば、第2のジェスチャの大きさに従って)第2の編集可能パラメータの現在値を調整する(例えば、新しい位置でスライダ上にスライダバー表示する)(例えば、図22J〜図22K)(2324)。異なる編集可能パラメータを調整する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 A second gesture directed at an adjustable control (eg, 2252b, 2252bb, 2254a, 2254c, 2254f, 2256c) that adjusts the second editable parameter while the second editable parameter is selected. In response to detecting (eg, 2250d, 2250i, 2250o) (2322), the electronic device now follows the second gesture (eg, according to the magnitude of the second gesture) of the second editable parameter. Adjust the value (eg, display a slider bar on the slider at a new position) (eg, FIGS. 22J-22K) (2324). Adjusting different editable parameters By providing different adjustable controls to prevent the user from unintentionally changing the representation in an undesired way, and at the same time inputting input to the adjustable controls It provides the user with additional control of the device by allowing the user to recognize that the expression is changed based on. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第2の編集可能パラメータが選択されている間に、第2の編集可能パラメータを調整する調整可能なコントロールに向けられた第2のジェスチャ(例えば、2252b、2252bb、2254a、2254c、2254f、2256c)を検出したことに応答して(2322)、電子デバイスは、視覚メディアの表現(2230a〜2230p)の表示を、第2の編集可能パラメータの調整された現在値に基づいて調整される視覚メディアの調整された表現(2230a〜2230p)に置き換える(2326)(例えば、編集可能パラメータが色合いである場合、(例えば、第2のジェスチャの大きさによって現在調整された)第2の編集可能パラメータの現在値に基づいて調整される表現は、最初に表示される視覚メディアの表現よりも、より多くの又は少ない色合いを有する)(例えば、図22J〜図22K)。調整可能なコントロールの値を変更したことに応答して、調整された表現を表示することによって、キャプチャされたメディアの表現に対するパラメータの現在の効果についてのフィードバックをユーザに提供し、ユーザが調整を受け入れると決定する場合に、調整可能なコントロールに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, a second gesture directed at an adjustable control that adjusts the second editable parameter while the second editable parameter is selected (eg, 2252b, 2252bb, 2254a). , 2254c, 2254f, 2256c) (2322), the electronic device displays the representation of the visual media (2230a-2230p) based on the adjusted current value of the second editable parameter. Replace with the adjusted representation of the visual media (2230a-2230p) adjusted by (2326) (eg, if the editable parameter is a tint (eg, currently adjusted by the size of the second gesture). The representation adjusted based on the current value of the editable parameter of 2 has more or less shade than the representation of the initially displayed visual media) (eg, FIGS. 22J-22K). By displaying the adjusted representation in response to changing the value of the adjustable control, it provides the user with feedback on the current effect of the parameter on the captured media representation, allowing the user to make adjustments. When deciding to accept, it provides the user with visual feedback that the action associated with the adjustable control is taking place. Providing improved visual feedback to the user enhances the usability of the device and allows the user to provide a user-device interface (eg, to provide appropriate input when manipulating / interacting with the device). By assisting and reducing user error), and in addition, by allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. NS.
いくつかの実施形態では、メディア編集ユーザインタフェースが視覚メディアの表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンス(例えば、2214f〜i)を含まない間に、電子デバイスは、第3のユーザ入力(例えば、2250l)(例えば、スワイプジェスチャ(例えば、メディア編集ユーザインタフェースのコントロール領域に対応する場所で、アフォーダンス上でのタップ(例えば、中央にあるディスプレイの縁部に向かうアフォーダンス))を検出する。いくつかの実施形態では、第3のユーザ入力(例えば、2250l)を検出したことに応答して、電子デバイスは、第3のアフォーダンス(例えば、2214f〜i)を表示する(例えば、ディスプレイにスライドオンする第3のアフォーダンスのアニメーションを表示する)。いくつかの実施形態では、電子デバイスはまた、第3のアフォーダンス(例えば、2214f〜i)を表示するときに、第1のアフォーダンス(2214a)及び/又は第2のアフォーダンス(2214c)の表示を停止する。いくつかの実施形態では、対応するパラメータのための複数のアフォーダンスを、第3のユーザ入力を検出する前に表示されず、第3のユーザ入力を検出したことに応答して、表示される多くのアフォーダンスは、第3のユーザ入力(例えば、スワイプ又はドラッグジェスチャの接触の移動の速さ及び/又は方向)(例えば、図22L〜図22N)の大きさ(例えば、速さ及び/又は距離)及び/又は方向に基づいて選択される。 In some embodiments, while the media editing user interface does not include a third affordance (eg, 2214f-i) corresponding to a fourth editable parameter that edits the representation of the visual media, the electronic device is 3 user inputs (eg, 2250 liters) (eg, swipe gestures (eg, taps on affordances (eg, affordances towards the edge of the central display) in a location corresponding to the control area of the media editing user interface)). In some embodiments, in response to detecting a third user input (eg, 2250 l), the electronic device displays a third affordance (eg, 2214f-i) (eg, 2214f-i). In some embodiments, the electronic device also displays the first affordance when displaying the third affordance (eg, 2214f-i). Stop displaying (2214a) and / or the second affordance (2214c). In some embodiments, multiple affordances for the corresponding parameters are not displayed before the third user input is detected. Many affordances displayed in response to detecting a third user input are the third user input (eg, the speed and / or direction of movement of the swipe or drag gesture contact) (eg, the speed and / or direction of the swipe or drag gesture contact). It is selected based on the size (eg, speed and / or distance) and / or direction of FIGS. 22L-22N).
いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、2252i2)(例えば、自動調整アルゴリズムによって計算された値)に対応するという判定に従って、電子デバイスが触知出力(例えば、2260a)(例えば、振動)を生成することを更に含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、第1の編集可能パラメータの現在値(例えば、調整された現在値)が第1の編集可能パラメータに対する所定のリセット値(例えば、自動調整アルゴリズムによって計算された値)に対応しないという判定に従って、電子デバイスが触知出力(例えば、振動)を生成するのをやめることを更に含む。いくつかの実施形態では、インジケータ(例えば、スライダ上の着色された又は太字化されたティックマーク又はスライダ上の別の識別ユーザインタフェース要素)は、スライダ上に表示されて、所定のリセット値を示す。(例えば、図22Q〜図22R)。その元の条件に表現をリセットする追加の制御オプションを提供することにより、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。いくつかの実施形態では、複数の条件が満たされていると、複数のアフォーダンスが表示される。 In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture so that the current value of the first editable parameter (eg, the adjusted current value) is the first. The electronic device has a tactile output (eg, 2260a) (eg, vibration) according to the determination that it corresponds to a predetermined reset value (eg, 2252i2) (eg, a value calculated by an auto-tuning algorithm) for one editable parameter. Further includes producing. In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture so that the current value of the first editable parameter (eg, the adjusted current value) is the first. Further comprising stopping the electronic device from producing a tactile output (eg, vibration) according to a determination that it does not correspond to a predetermined reset value (eg, a value calculated by an auto-tuning algorithm) for one editable parameter. .. In some embodiments, an indicator (eg, a colored or bolded tick mark on the slider or another identifying user interface element on the slider) is displayed on the slider to indicate a given reset value. .. (For example, FIGS. 22Q to 22R). By providing additional control options that reset the representation to its original condition, the user-device interface (eg, assisting the user in providing appropriate input when manipulating / interacting with the device, By making it more efficient (by reducing user error) and, in addition, allowing users to use the device faster and more efficiently, the device's power usage is reduced and battery life is improved. In some embodiments, multiple affordances are displayed when multiple conditions are met.
いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールを表示しており、かつ第3の入力(例えば、2250l)を検出している間に、電子デバイスは、第1の編集可能パラメータを調整する調整可能なコントロールを視覚的に強調するのをやめる(例えば、図22Mの2254a1)(例えば、グレーアウトされ、より小さく、焦点から外れて、暗色で表示する)。いくつかの実施形態では、電子デバイスは、第3の入力のリフトオフを検出するまでに、調整可能なコントロールを視覚的に強調するのをやめる(例えば、図22L〜図22N)。編集可能パラメータを通じてナビゲーションしている間に調整可能なコントロールを強調するのをやめることにより、調整可能なコントロールの現在の状態についてのフィードバックをユーザに提供し、ユーザは、動作の現在の状態が調整可能なコントロールに影響を与えないことを判定することができ、特定のユーザインタフェース要素の顕著な表示を減少させることによって、ユーザが特定の編集可能パラメータにナビゲーションすることによって、誤りを低減する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying an adjustable control that adjusts the first editable parameter and detecting a third input (eg, 2250 liters), the electronic device is the first. Adjust the editable parameters of the adjustable control to stop visually emphasizing (eg, 2254a1 in FIG. 22M) (eg, grayed out, smaller, out of focus, displayed in dark color). In some embodiments, the electronic device ceases to visually emphasize the adjustable control by the time it detects a lift-off of the third input (eg, FIGS. 22L-22N). By stopping highlighting the adjustable control while navigating through the editable parameters, it provides the user with feedback on the current state of the adjustable control, and the user adjusts the current state of the behavior. It can be determined that it does not affect the possible controls, reducing errors by allowing the user to navigate to specific editable parameters by reducing the prominent display of specific user interface elements. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の編集可能パラメータを調整する調整可能なコントロールが表示されている間に(例えば、2254a1)、第3の入力(例えば、2250l)が電子デバイスによって受信される。いくつかの実施形態では、電子デバイスが第3のアフォーダンスを表示することは、第4の編集可能パラメータが第1のタイプのパラメータ(例えば、2212a〜2212d)(例えば、所定の場所(例えば、メディア編集ユーザインタフェースの中心)に表示される場合に調整のために自動的に選択されるパラメータ)であると満たされる基準を含む、第1の1組の基準が満たされているという判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、図22Yの2252b1)を表示することを含む。いくつかの実施形態では、第1の1組の基準は、第3のアフォーダンスが第2のそれぞれの場所(例えば、編集可能パラメータに対応するアフォーダンスを表示する制御リボンの中心)(例えば、このような回転、コントラスト、輝度、明度、彩度などを調整するために選択される前に選択入力を必要としない編集可能パラメータは、編集可能パラメータのデフォルト状態が、視覚メディアの表現の現在の状態に対応する)で表示されると満たされる基準を含む。いくつかの実施形態では、電子デバイスが第3のアフォーダンス(例えば、2214a〜2214i)を表示することはまた、第1の1組の基準が満たされていないという判定に従って、電子デバイスは、メディア編集ユーザインタフェース内のそれぞれの場所に、第4の編集可能パラメータを調整する調整可能なコントロール(例えば、2214h)を表示するのをやめることを含む。いくつかの実施形態では、電子デバイスはまた、第1の編集可能パラメータを調整する調整可能なコントロールの表示を維持する。いくつかの実施形態では、第1の1組の基準は、第4の編集可能パラメータが第2のタイプのパラメータ(例えば、所定の場所に表示される場合に調整のために自動的に選択されないパラメータ(例えば、フィルタ又は編集ツールなどを調整するために選択される前に選択入力を必要とする編集可能パラメータは、フィルタ又は編集ツールのデフォルト用途が、フィルタ又は編集ツールを視覚メディアの表現に適用することによって、視覚メディアの表現を変更する))(例えば、図22H〜図22I及び図22W〜図22Z)であると満たされない。 In some embodiments, a third input (eg, 2250 liters) is received by the electronic device while the adjustable control that adjusts the first editable parameter is displayed (eg, 2254a1). In some embodiments, the electronic device displays a third affordance when the fourth editable parameter is a first type of parameter (eg, 2212a-2212d) (eg, a predetermined location (eg, media). According to the determination that a first set of criteria is met, including criteria that are met as a parameter that is automatically selected for adjustment when displayed in the center of the edit user interface). The device comprises displaying an adjustable control (eg, 2252b1 in FIG. 22Y) that adjusts a fourth editable parameter at each location within the media editing user interface. In some embodiments, the first set of criteria is that the third affordance is in its second location (eg, the center of the control ribbon that displays the affordance corresponding to the editable parameter) (eg, such as this. For editable parameters that do not require select input before being selected to adjust rotation, contrast, brightness, brightness, saturation, etc., the default state of the editable parameter is the current state of the visual media representation. Includes criteria that are met when displayed in (corresponding). In some embodiments, the electronic device displays a third affordance (eg, 2214a to 2214i), and the electronic device also edits the media according to the determination that the first set of criteria is not met. Each location within the user interface includes stopping the display of adjustable controls (eg, 2214h) that adjust the fourth editable parameter. In some embodiments, the electronic device also maintains a display of adjustable controls that adjust the first editable parameter. In some embodiments, the first set of criteria is not automatically selected for adjustment when the fourth editable parameter is displayed in a second type of parameter (eg, in place). For editable parameters that require selective input before being selected to adjust a parameter (eg, a filter or editing tool, etc., the default use of the filter or editing tool applies the filter or editing tool to the representation of visual media. (By doing so, the representation of the visual media is changed)) (for example, FIGS. 22H to 22I and 22W to 22Z).
いくつかの実施形態では、視覚メディアの表現及び第1のアフォーダンス(例えば、2214c)を表示している間に、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているかどうかの状態(例えば、図22F〜図22Gの2204c)を示す、第1の編集可能パラメータ状態インジケータ(例えば、2214c)(例えば、編集可能パラメータのオン/オフをトグルする選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、電子デバイスは、第1のアフォーダンスの選択に対応する第4のユーザ入力を検出する。いくつかの実施形態では、第4のユーザ入力(例えば、2250f及び/又は2250g)を検出したことに応答して、及び視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されているという判定に従って(例えば、第1の編集可能パラメータ状態インジケータがアクティブである又は選択されているものとして表示されるとき(例えば、押圧されて及び/又は異なる色で(例えば、飽和していない及び/又は暗色化又はグレーアウトされていない)表示されているなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないことを示すように、第1の編集可能パラメータ状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータが非アクティブ又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整されなかった視覚メディアの表現に置き換える(例えば、表現は、第1の編集可能パラメータ(例えば、コントラスト)に対応する元のキャプチャされた値(例えば、メディアがキャプチャされたときの元のコントラスト値)を有する)。いくつかの実施形態では、第4のユーザ入力を検出したことに応答して、及び視覚メディアの表現が第1の編集可能パラメータに基づいて現在調整されていないという判定に従って(例えば、第1の編集可能パラメータ状態インジケータが非アクティブである又は選択されていないものとして表示されるとき(例えば、押圧されていない及び/又は異なる色で(例えば、暗色化された及び/又は飽和されていない若しくはグレーアウトされている)あるなどの、第1の編集可能パラメータが非アクティブであるという視覚インジケーションを表示する)、電子デバイスは、視覚メディアの表現が第1の編集可能パラメータの現在値に基づいて現在調整されていることを示すように、状態インジケータを更新し(例えば、第1の編集可能パラメータ状態インジケータがアクティブ又は選択されているものとして表示されるとき(例えば、押圧されている及び/又は異なる色で(例えば、飽和された及び/又は暗色化されていない若しくはグレーアウトされている)表示されているものなどの、第1の編集可能パラメータがアクティブであるという視覚インジケーションを表示する)、視覚メディアの表現の表示を、第1の編集可能パラメータに基づいて調整された視覚メディアの表現に置き換える(例えば、第1の編集可能パラメータの現在値(例えば、第1の編集可能パラメータを調整する調整可能なコントロール上に表示された現在値)に基づいて調整された表現)(例えば、図22F〜図22H)。 In some embodiments, while displaying the representation of the visual media and the first affordance (eg, 2214c), the electronic device is currently adjusting the representation of the visual media based on the first editable parameter. A first editable parameter status indicator (eg 2214c) (eg, a selectable user interface object that toggles on / off editable parameters) that indicates whether or not it is (eg, 2204c in FIGS. 22F-22G). ) Is displayed. In some embodiments, the electronic device detects a fourth user input corresponding to a first affordance selection. In some embodiments, in response to the detection of a fourth user input (eg, 2250f and / or 2250g), and the representation of the visual media is currently adjusted based on the first editable parameter. (For example, when the first editable parameter status indicator is displayed as active or selected (eg, pressed and / or in a different color (eg, not saturated and / /) Or display a visual indication that the first editable parameter is active, such as (not darkened or grayed out)), the electronic device has a representation of the visual media as the first editable parameter. Update the first editable parameter status indicator to indicate that it is not currently adjusted based on (for example, when the first editable parameter status indicator is displayed as inactive or not selected. The visual sense that the first editable parameter is inactive (eg, not pressed and / or in a different color (eg, darkened and / or unsaturated or grayed out)). Display the indication), replace the display of the visual media representation with a visual media representation that was not adjusted based on the first editable parameter (eg, the representation is the first editable parameter (eg, contrast). ) Corresponding to the original captured value (eg, the original contrast value when the media was captured). In some embodiments, in response to detecting a fourth user input, And according to the determination that the representation of the visual media is not currently adjusted based on the first editable parameter (eg, when the first editable parameter status indicator is displayed as inactive or not selected). The visual sense that the first editable parameter is inactive (eg, not pressed and / or in a different color (eg, darkened and / or unsaturated or grayed out)). Displaying the indication), the electronic device updates the status indicator (eg, the first) to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter. Editable parameter status indicator is active or selected When displayed as being (eg, pressed and / or displayed in a different color (eg, saturated and / or not darkened or grayed out), etc. Replacing the display of the visual media representation with a visual media representation adjusted based on the first editable parameter (eg, displaying a visual indication that the first editable parameter is active). A representation adjusted based on the current value of the editable parameter of (eg, the current value displayed on the adjustable control that adjusts the first editable parameter) (eg, FIGS. 22F-22H).
いくつかの実施形態では、第3の編集可能パラメータ現在値インジケータ(例えば、2244a〜2244i)は、第1のアフォーダンス(例えば、2214a〜2214i)の少なくとも一部分を視覚的に包囲し(例えば、周囲に円形に包まれた、包含する)、第4の編集可能パラメータ現在値(例えば、2244a〜2244i)インジケータは、第2のアフォーダンス(例えば、2214a〜2214i)を視覚的に包囲する(例えば、周囲に円形に包まれた、包含する)。いくつかの実施形態では、進度インジケータは、現在値の関係に基づいて、第1の編集可能パラメータが設定され得る最大値に、色(例えば、青色)で満たす円形状態バーを含む)。編集可能パラメータが更新される(又は変化する)ときに値インジケータを提供することにより、ユーザは、調整可能な表現を表示するように変化した編集可能パラメータの現在値を判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the third editable parameter current value indicator (eg, 2244a-2244i) visually surrounds (eg, surrounds) at least a portion of the first affordance (eg, 2214a-2214i). The fourth editable parameter current value (eg, 2244a to 2244i) indicator, wrapped in a circle, visually surrounds (eg, surrounds) the second affordance (eg, 2214a to 2214i). Wrapped in a circle, including). In some embodiments, the progress indicator includes a circular state bar filled with a color (eg, blue) to the maximum value at which the first editable parameter can be set, based on the relationship between the current values. By providing a value indicator when the editable parameter is updated (or changed), the user can determine the current value of the editable parameter that has changed to display an adjustable representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイスは、1つ以上のカメラを含む。いくつかの実施形態では、視覚メディアの表現は、1つ又はカメラの視野の表現である。いくつかの実施形態では、メディア編集ユーザインタフェースは、電子デバイスが、照明効果及び深度効果の適用を可能にする、第1のキャプチャモード(例えば、カメラモード(例えば、ポートレートモード(例えば、メディア照明キャプチャコントロール(例えば、ポートレート照明効果コントロール(例えば、スタジオ照明、輪郭照明、舞台照明))))で視覚メディアをキャプチャ(又は編集)するように構成されている間に表示される。いくつかの実施形態では、第1の編集可能パラメータは、照明効果強度(例えば、602f)(例えば、シミュレートされた光量(例えば、光度))である。いくつかの実施形態では、第2の編集可能パラメータは、深度効果強度(例えば、602e)(例えば、ボケ効果強度、シミュレートされたf値)(例えば、図22W〜図22AC)である。 In some embodiments, the electronic device comprises one or more cameras. In some embodiments, the representation of the visual media is one or a representation of the field of view of the camera. In some embodiments, the media editing user interface provides a first capture mode (eg, camera mode (eg, portrait mode (eg, media lighting)) that allows the electronic device to apply lighting and depth effects. Displayed while a capture control (eg, portrait lighting effect control (eg, studio lighting, contour lighting, stage lighting))) is configured to capture (or edit) visual media. In embodiments, the first editable parameter is the illumination effect intensity (eg, 602f) (eg, simulated light intensity (eg, light intensity)). In some embodiments, the second editable parameter. Is the depth effect intensity (eg, 602e) (eg, blur effect intensity, simulated f value) (eg, FIGS. 22W-22AC).
いくつかの実施形態では、第1の編集可能パラメータは、照明効果パラメータ(例えば、602f)(例えば、図22W〜図22AC)に対応する。いくつかの実施形態では、メディア編集ユーザインタフェースは、照明効果パラメータに対する値インジケータ(例えば、602f)(例えば、パラメータの値に基づいて更新される編集可能パラメータに対応するアフォーダンスの周囲のグラフィカル境界)を含む。いくつかの実施形態では、電子デバイスが第1のジェスチャに従って第1の編集可能パラメータの現在値を調整することは、電子デバイスが、第1の編集可能パラメータの調整された現在値に基づいて、光有効状態インジケータを調整すること(例えば、現在値の部分から照明効果の最大可能値に基づいて、より多くの又は少ない光をアクティブ(例えば、グレーアウトしない)として表示すること)を含む。動作を実行している間にアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、調整可能なコントロールの値が変化していることを示す視覚的フィードバックをユーザに提供する。いくつかの実施形態では、深度インジケータは、照明インジケータとは異なる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first editable parameter corresponds to a lighting effect parameter (eg, 602f) (eg, FIGS. 22W-22AC). In some embodiments, the media editing user interface provides a value indicator for the lighting effect parameter (eg, 602f) (eg, a graphical boundary around the affordance corresponding to the editable parameter that is updated based on the value of the parameter). include. In some embodiments, the electronic device adjusts the current value of the first editable parameter according to the first gesture, which means that the electronic device adjusts the current value of the first editable parameter based on the adjusted current value of the first editable parameter. Includes adjusting the light enable state indicator (eg, displaying more or less light as active (eg, not grayed out) based on the maximum possible value of the lighting effect from the current value portion). By updating the visual characteristics of the icon to reflect the activation state while performing the action, it provides the user with feedback on the current state of the icon and changes the value of the adjustable control. Provide users with visual feedback to indicate that they are. In some embodiments, the depth indicator is different from the lighting indicator. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
方法2300に関して上述された処理(例えば、図23A〜図23B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2500、2700、2800、3000、3200、3400、3600、及び3800は、方法2300を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for method 2300 (eg, FIGS. 23A-23B) are also applicable to the methods described above in a similar manner. For example,
図24A〜図24ABは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図25A〜図25Bにおける処理を含む、以下で説明される処理を例示するために使用される。 24A-24AB show exemplary user interfaces for editing media captured using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 25A-25B.
理解を向上させるために、図24A〜図24Jは、後処理技術により(例えば、メディアがキャプチャされた後に)、以前にキャプチャされたメディアの表現の水平線、垂直遠近歪、及び水平遠近歪の位置を補正する(例えば、低減する及び/又は変更する)ユーザインタフェースの例を提供するために、以下で論じられる。いくつかの実施形態では、表現の水平線、垂直遠近歪、及び水平遠近歪の位置は、カメラの位置(例えば、傾斜、角度)、又はメディアをキャプチャしている間のカメラレンズの形状及び/若しくは位置によって影響を受ける。 To improve understanding, FIGS. 24A-24J show the horizontal lines, vertical perspective distortion, and horizontal perspective distortion positions of previously captured media representations by post-processing techniques (eg, after the media has been captured). Is discussed below to provide an example of a user interface that corrects (eg, reduces and / or modifies). In some embodiments, the horizontal lines, vertical perspective distortion, and horizontal perspective distortion position of the representation are the position of the camera (eg, tilt, angle), or the shape and / or shape of the camera lens while capturing the media. Affected by position.
図24Aにおいて、電子デバイス600は、以前にキャプチャされたメディア(例えば、写真)の表現2430aを含むメディアビューワユーザインタフェースを表示する。表現2430aは、矩形プリズム2432の横方向面2432bで足をぶらぶらさせながら矩形プリズム2432の上に座っている人を示す。横方向面2432bの他に、図示される矩形プリズム2432の唯一の他の面は、端面2432aである。表現2430aは、水平線が表現2430aにおいて対角線であるため、補正されていない水平線2438を含む(例えば、水平線2438の一部の点が異なるy値を有する場合)。図24Eに示すように(以下に詳細に論じられる)、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるように、表現2430aを調整することによって(例えば、水平線の各点が同一のy値を有する場合)、水平線2438の位置を補正する。更には、図24Aにおいて、表現2430aは、補正されていない垂直遠近歪を含む。垂直線2434a〜2434cが表現2430a内で平行であるべきだが(例えば、実際の垂直線(例えば、自然又は実世界環境内)プリズムは平行であるため)、垂直線2434a〜2434cは、表現2430aの底部に向かって、それぞれの点で視覚的に収束するように見える。図24Hに示すように、デバイス600は、垂直線2434a〜2434cが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、垂直視点を補正する。更に、図24Aにおいて、表現2430aは、補正されていない水平遠近歪を含む。例えば、水平線2436a〜2436bが表現2430a内で平行であるべきだが(例えば、実際のプリズムの水平線(例えば、自然又は実世界環境内)、水平線2436a〜2436bは、表現2430a内で右から左へ動いて収束するように見える。図24Jに示すように、デバイス600は、水平線2436a〜2436bが平行(例えば、収束していない)であるように見えるように、表現2430aを調整することによって、水平視点を補正する。図24Aに示すように、メディアビューワユーザインタフェースはまた、編集アフォーダンス644aを含む。
In FIG. 24A,
図24Aでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2450aを検出する。図24Bに示すように、タップジェスチャ2450aを検出したことに応答して、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(例えば、図22A〜図22Bに関連して上述したように)。メディア編集ユーザインタフェースは、図24Aにおいて表現2430aに対応する表現2430bを含む。すなわち、表現2430bは、キャプチャされたメディアの同一の表現を示し、表現2430aに関連して上述したように、水平線、垂直遠近歪、及び水平遠近歪と同一の位置を有する。メディア編集ユーザインタフェースはまた、図22Aにおいて上述されたメディア編集ユーザインタフェースと同様の構成要素を含む。しかしながら、図22Aにおいて上述されたメディア編集ユーザインタフェースとは対照的に、デバイス600は、表現2430bによって表されたキャプチャされたメディアが写真メディアであることを判定する。その結果、デバイス600は、写真メディアが写真を編集する特定の1組の編集ツールを有さないことを判定する。また、この判定に従って、デバイス600は、写真メディアを編集するメディア編集モードアフォーダンスを表示せずに、編集モードアフォーダンス2210b〜2210d(例えば、ポートレートモードメディア編集モードアフォーダンス2210aなどの第4のメディア編集アフォーダンスの代わりに)編集モードアフォーダンス2210b〜2210dを表示する。具体的には、編集モードアフォーダンス2210b〜2210dは、視覚特性編集モードアフォーダンス2210b、フィルタ編集モードアフォーダンス2210c、及び画像コンテンツ編集モードアフォーダンス2210dを含む。図24Bに示すように、視覚特性編集モードアフォーダンス2210bは、モード選択インジケータ2202bによって示すように、選択される。その結果、デバイス600は、図22B〜図22Cで論じられた同様の技術を使用して、視覚特性編集ツールアフォーダンス2214を表示する。
In FIG. 24A, the
図24Bでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する場所でのタップジェスチャ2450bを検出する。図24Cに示すように、タップジェスチャ2450bを検出したことに応答して、デバイス600は、デバイスが画像コンテンツ編集モードで表現を編集するように構成されることを示すように、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを表示する。更には、デバイス600は、視覚特性編集ツールアフォーダンス2214を、画像コンテンツ編集ツールアフォーダンス2218に置き換える。画像コンテンツ編集ツールアフォーダンス2218を表示することは、(表現の水平線の位置を補正するための)歪み矯正編集ツールアフォーダンス2218aと、(表現の垂直遠近歪を補正するための)垂直視点編集ツールアフォーダンス2218bと、(表現の水平遠近歪を補正するための)水平視点編集ツールアフォーダンス2218cと、を同時に表示することを含む。デバイス600は、歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示し、これは、歪み矯正編集ツールアフォーダンス2218aの上部に隣接して表示されるツール選択インジケータ2204aによって示される。歪み矯正編集ツールアフォーダンス2218aを選択されたものとして表示することに加えて、デバイス600はまた、調整可能なストレート化コントロール2258aの中心付近の位置にストレート化コントロールインジケーション2258a1を表示する。
In FIG. 24B, the
図24Cでは、デバイス600は、表現2430bに向けられたデピンチジェスチャ2450cを検出する。図24Dに示すように、デピンチジェスチャ2450cを検出したことに応答して、デバイス600は、表現2430bのズームイン表現(例えば、2×ズーム)に対応する表現2430cを表示することにより、表現2430bのズームレベル(例えば、1×ズーム)を変更する。ズームインの結果として、表現2430cは、矩形プリズム2432及び水平線2438の一部分を示し、一方、矩形プリズム2432及び水平線2438の別の部分の表示を停止される。水平線2438の表示された部分は、対角線であり、水平線2438の一部の点は、異なるy値である。表現2430cはまた、鳥2440を含み続け、これは、表現2430bの左上に表示された。
In FIG. 24C,
更には、図24Dに示すように、デバイス600は、表現2430cによって表されたキャプチャされたメディアが、方法1100に関連して記載されるものと同様の技術を使用してキャプチャされたと判定した。したがって、キャプチャされたメディアは、表現2430cとして表示される視覚コンテンツ(例えば、図10E〜図10Gにおいてメディアをキャプチャするときに、ライブプレビュー630内に表示されるようにキャプチャされた視覚コンテンツ)と、表現2430cとして表示されない追加の視覚コンテンツ(例えば、図10E〜図10Gにおいてメディアをキャプチャするときに、インジケータ領域602及びコントロール領域606内に表示されるようにキャプチャされた視覚コンテンツ、過剰にキャプチャされたコンテンツ)と、を含む。いくつかの実施形態では、追加の視覚コンテンツは、視覚コンテンツの所定の空間的境界の外側(例えば、当初キャプチャされたフレームの外側、又は図10E〜図10Gにおけるライブプレビュー630の外側)にある視覚コンテンツを含むことができる。いくつかの実施形態では、キャプチャされたメディアに対応するデータファイルは、表現2430cとして表示される視覚コンテンツと、表現2430cとして表示されない追加の視覚コンテンツと、を含む。デバイス600が表現2430cによって表されたキャプチャされたメディアが追加のデータを含むと判定した結果として、デバイス600は、(キャプチャされたメディアの表現を自動的に編集する)自動調整アフォーダンス1036bを表示する。いくつかの実施形態では、デバイス600が、表現2430cによって表されたキャプチャされたメディアが追加の視覚コンテンツを含まないと判定する場合、デバイス600は、自動調整アフォーダンス1036bを表示しない。
Furthermore, as shown in FIG. 24D,
図24Dでは、デバイス600は、調整可能なストレート化コントロール2258aに向けられたジェスチャ2450d(左向きフリック、又はドラッグジェスチャ)を検出する。図24Eに示すように、ジェスチャ2450dを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。デバイス600は、ジェスチャ2450dの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、ストレート化コントロールインジケーション2258a1を、調整可能なストレート化コントロール2258a上の新しい位置に動かし、値インジケータ2248aを表示する。ジェスチャ2450dの大きさ及び方向により、デバイス600に、調整可能なストレート化コントロール2258aの最右端のティックマーク(例えば、最大値)により近い新しい位置に、ストレート化コントロールインジケーション2258a1を表示させる。更には、デバイス600は、表現2430dを表示し、ここで、表現2430dは、調整可能なストレート化コントロール2258a上のストレート化コントロールインジケーション2258a1の新しい位置に対応する値に基づいて調整された表現2430cのバージョンである。表現2430dによって示されるように、デバイス600は、水平線2438が表現のx軸に沿ってのみ進むように見えるまで(例えば、水平線の各点が同一のy値を有する場合)、表現2430cを時計方向に回転する。キャプチャされたメディアが表現2430dに表示されなかった追加のコンテンツを含むため、デバイス600は、鳥2440が表現2430dに表示され続けるように、表現2430cを回転している間に追加の視覚コンテンツを利用する(例えば、持ち込む)。表現2430cに表示されない追加の視覚コンテンツ(例えば、画像がキャプチャされたときに、インジケータ領域602内に表示されない視覚コンテンツ)を利用することにより、デバイス600は、表現2430d内の視覚コンテンツの表示を維持することができる。対照的に、いくつかの実施形態では、鳥2440は、表現2430dに表示され続けない。例えば、キャプチャされたメディアが、表示されていない追加の視覚コンテンツを含まないとき、デバイス600は、ジェスチャ2450dを検出したことに応答して、表現2404cを回転するときに点線2466より上の領域をクロップアウトする。明確にするために図24D〜図24Eに示すように、デバイス600は、点線2466より上の領域をクロップアウトして、調整された表現を矩形に見えるようにする(例えば、クロップされない場合、点線2466より上の領域の一部分は、メディア編集ユーザインタフェースの外側にある)。したがって、点線2466でクロッピング後、デバイス600は、図24Eの点線2466より上の領域の表示を停止する。いくつかの実施形態では、垂直遠近歪を補正することは、表現の視点を垂直方向(例えば、下から上)に傾けることを含む。いくつかの実施形態では、垂直視点を補正することは、表現内の水平線を調整することを含み、これにより、表現が、垂直視点が表現内で変更したかのように視覚的に表示される。
In FIG. 24D,
図24Eでは、デバイス600は、表現2430dに向けられたピンチングジェスチャ2450eを検出する。図24Fに示すように、ピンチングジェスチャ2450eを検出したことに応答して、デバイス600は、表現2430bが図24Cに表示された以前のズームレベルまで、表現2430dをズームアウトすることによって、表現2430eを表示する。表現2430eに示すように、デバイス600は、表現2430dに調整とともに表示された、水平線2438の部分を表示し続ける。特に、デバイス600はまた、水平線2438の全体が表現のx軸に沿ってのみ進むように見えるように(例えば、水平線の各点が同一のy値を有する場合)調整しながら、表現2430dに表示されなかった水平線2438の部分を表示する。したがって、デバイス600(図24E〜図24Dによって示されるように)は、表現のズームレベルとは無関係に、表現への調整を行い及び維持することができる。
In FIG. 24E,
図24Fでは、デバイス600は、垂直視点編集ツールアフォーダンス2218bに対応する場所でのタップジェスチャ2450fを検出する。図24Gに示すように、タップジェスチャ2450fを検出したことに応答して、デバイス600は、デバイス600がタップジェスチャ2250h及び/又は2250nを検出したことに応答して、上述したものと同様の技術を行う。図24Gでは、デバイス600は、調整可能なストレート化コントロール2258a及びストレート化コントロールインジケーション2258a1の表示を、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204bを表示し、かつツール選択インジケータ2204aの表示を停止して、デバイス600が垂直遠近歪調整モードで動作するように構成されていることを示す。
In FIG. 24F, the
図24Gでは、デバイス600は、調整可能な垂直遠近歪コントロール2258bに向けられたジェスチャ2450g(右向きフリック、又はドラッグジェスチャ)を検出する。図24Hに示すように、ジェスチャ2450gを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、ジェスチャ2450gの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、垂直遠近歪コントロールインジケーション2258b1を、調整可能な垂直遠近歪コントロール2258b上の新しい位置に動かす。ジェスチャ2450gを検出したことに応答して、デバイス600はまた、調整可能な垂直遠近歪コントロール2258b上の垂直遠近歪コントロールインジケーション2258b1の新しい位置に対応する値に基づいて調整された表現2430fを表示する。その結果、デバイス600は、図24Gの垂直線2434a〜2434cと比較して、メディアユーザインタフェースの底部に向かって動かすときに、収束が少なくなるように垂直線2434a〜2434cを修正する。図24Hに示すように、垂直線2434a〜2434cは、平行であるように見える。
In FIG. 24G,
図24Hでは、表現2430fを表示している間に、デバイス600は、水平視点編集ツールアフォーダンス2218cに対応する場所でのタップジェスチャ2450hを検出する。図24Iに示すように、タップジェスチャ2450hを検出したことに応答して、デバイス600は、デバイス600がタップジェスチャ2250h、2250n、及び2450fを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、調整可能な垂直遠近歪コントロール2258b及び垂直遠近歪コントロールインジケーション2258b1の表示を、調整可能な水平遠近歪コントロール2258c及び調整可能な水平遠近歪コントロールインジケーション2258c1の表示に置き換える。更には、デバイス600は、ツール選択インジケータ2204cを表示し、かつツール選択インジケータ2204bの表示を停止して、デバイス600が水平遠近歪調整モードで動作するように構成されていることを示す。
In FIG. 24H, while displaying the
図24Iでは、デバイス600は、調整可能な水平遠近歪コントロール2258cに向けられたジェスチャ2450i(左向きフリック、又はドラッグジェスチャ)を検出する。図24Jに示すように、ジェスチャ2450iを検出したことに応答して、デバイス600は、デバイス600がジェスチャ2250d、2250i、及び/又は2250oを検出したことに応答して、上述したものと同様の技術を行う。具体的には、デバイス600は、ジェスチャ2450iの大きさ及び方向(例えば、スワイプの速さ、長さ)に基づいて、水平遠近歪コントロールインジケーション2258c1を、調整可能な水平遠近歪コントロール2258c上の新しい位置に動かす。ジェスチャ2450iを検出したことに応答して、デバイス600はまた、調整可能な水平遠近歪コントロール2258c上の水平遠近歪コントロールインジケーション2258c1の新しい位置に対応する値に基づいて調整された表現2430fのバージョンである表現2430gを表示する。その結果、デバイス600は、メディアユーザインタフェースを右から左へ動かすときに、収束が少なくなるように水平線2436a〜2436bを修正する。図24Jでは、水平線2436a〜2436bの収束が低減されると、矩形プリズム2432の横方向面2432bの長さが低減される。いくつかの実施形態では、水平遠近歪を補正することは、表現の視点を水平方向(例えば、左から右)に傾けることを含む。いくつかの実施形態では、水平視点を補正することは、表現内の垂直線を調整することを含み、これにより、表現が、水平視点が表現内で変更したかのように視覚的に表示される。
In FIG. 24I, the
いくつかの実施形態では、垂直遠近歪及び/又は水平遠近歪を調整するとき、デバイス600は、表現に表示されていない追加のコンテンツを利用して、キャプチャされたメディア内の垂直又は水平遠近歪を調整する(例えば、低減する又は増加させる)。いくつかの実施形態では、水平線、垂直、又は水平の表現を調整後、デバイス600は、調整された表現内に含まれない視覚コンテンツのグレーアウト(例えば、半透明)部分を表示する。いくつかの実施形態では、デバイス600は、調整された表現と、調整された表現内に含まれない視覚コンテンツとの間に視覚境界部を表示する。
In some embodiments, when adjusting vertical perspective distortion and / or horizontal perspective distortion, the
図24J〜図24Oは、アスペクト比調整モードで動作するデバイス600を示す。アスペクト比調整モードで動作するとき、デバイス600は、図8J及び図14A〜図14Uに関して上述したようなものと同様の技術を使用する。図24Jでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応するジェスチャ2450jを検出する。図24Kに示すように、ジェスチャ2450jを検出したことに応答して、デバイス600は、表現2430g上に視覚境界部608を表示する。図24Kでは、図14Aと同様に、デバイス600は、視覚部分1404と暗色部分1406との間に視覚境界部608を表示する。視覚部分1404は、既定の入力場所1410A〜1410Dを含む。加えて、ジェスチャ2450jを検出したことに応答して、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1及び垂直アスペクト比コントロールアフォーダンス626c2を表示する。視覚境界部608の水平側がその垂直側よりも長いため、デバイス600は、(例えば、太さ、ハイライト)水平アスペクト比コントロールアフォーダンス626c1を強調し、水平インジケータ2462dを表示して、視覚境界部608が水平向き(例えば、横向き)であることを示す。更に、ジェスチャ2450jを検出したことに応答して、デバイス600は、元のアスペクト比ツール2470a、自由形式アスペクト比ツール2470b、正方形のアスペクト比ツール2470c、及び3:2アスペクト比ツール2470ddを含む、アスペクト比ツールアフォーダンス2470を表示する。デバイス600は、表現2430gのアスペクト比が3:2アスペクト比であることを判定する。したがって、デバイス600は、3:2アスペクト比ツール2470ddの周囲にアスペクト比選択インジケータ2470dd1を表示する。いくつかの実施形態では、アスペクト比ツールアフォーダンス2470に関連して本明細書に記載される構成要素及び技術は、上述のアスペクト比コントロール1470及び818に関連して述べられたものと同じである。
24J to 24O show the
図24Kでは、デバイス600は、既定の入力場所1410Bに向けられたジェスチャ2450k(例えば、下向きドラッグジェスチャ)を検出する。図24Lに示すように、ジェスチャ2450kを検出したことに応答して、デバイス600は、図14E〜図14Iの1495Bに関連して上述したようなものと同様の技術を使用して、視覚境界部608のアスペクト比を変更する。デバイス600が視覚境界部608のアスペクト比を変更すると、デバイス600は、視覚境界部608のアスペクト比(例えば、視覚境界部608に取り囲まれた表現のアスペクト比と同じ)が既定のアスペクト比(例えば、正方形、3:2)ではないことを判定する。この判定の結果として、デバイス600は、アスペクト比ツール2470ddの周りのアスペクト比選択インジケータ2470dd1の表示を停止し、自由形式アスペクト比ツール2470ddの周りにアスペクト比選択インジケータ2470b1を表示する。視覚境界部608のアスペクト比が変化するとき、デバイス600はまた、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定する。この判定の結果として、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1を強調する代わりに、(例えば、太さ、ハイライト)垂直アスペクト比コントロールアフォーダンス626c2を強調する。デバイス600は、水平インジケータ2462dの表示を、垂直インジケータ2462eに置き換える。更には、デバイス600が、視覚境界部608の垂直側が視覚境界部608の水平側よりも大きいことを判定するため(例えば、垂直又は縦向き)、デバイス600は、3:2アスペクト比ツール2470ddを、2:3アスペクト比ツール2470d(例えば、逆のアスペクト比ツール)に置き換え、視覚境界部608の幅が視覚境界部608の長さよりも短いという比較と一致するようにする。
In FIG. 24K, the
図24Lでは、デバイス600は、2:3アスペクト比ツール2470dの場所に対応するタップジェスチャ2450lである。図24Mに示すように、タップジェスチャ2450lを検出したことに応答して、デバイス600は、アスペクト比ツールアフォーダンス2470を右にシフトすることにより、メディア編集ユーザインタフェースの中心に、2:3アスペクト比ツール2470dを表示する。図24Mでは、デバイス600は、元のアスペクト比ツール2470a及び自由形式アスペクト比ツール2470bの表示を停止し、3:4アスペクト比ツール2470e及び3:5アスペクト比ツール2470fを、2:3アスペクト比ツール2470dの右に表示する。デバイス600はまた、アスペクト比ツール2470dが選択されることを示すために、2:3アスペクト比ツール2470dの周囲に選択アスペクト比選択インジケータ2470d1を表示する。ジェスチャ2450lを検出したことに応答して、デバイス600はまた、自動的に(更なるユーザ入力なしで)、2:3アスペクト比で視覚境界部608を表示する。
In FIG. 24L, the
図24Mでは、デバイス600は、水平アスペクト比コントロールアフォーダンス626c1の場所に対応するタップジェスチャ2450mを検出する。図24Nに示すように、ジェスチャタッピング2450mを検出したことに応答して、デバイス600は、自動的に(更なるユーザ入力なしで)、2:3アスペクト比での視覚境界部608の表示を、3:2アスペクト比での視覚境界部608の表示に置き換える。特に、デバイス600は、表現2430gを回転させることなく、この置き換えを行う(例えば、視覚境界部608のあるアスペクト比を逆のアスペクト比に変更する)。更には、ジェスチャ2450mを検出したことに応答して、デバイス600は、水平アスペクト比アフォーダンス626c1を再強調し、かつ垂直アスペクト比アフォーダンス626c2を強調するのをやめる。デバイス600はまた、アスペクト比ツールアフォーダンス2470を、図24Mに表示されるものである逆のアスペクト比ツールに変更する(例えば、2:3アスペクト比ツール2470dから対応する3:2アスペクト比ツール2470dd、3:4アスペクト比ツール2470eから対応する4:3アスペクト比ツール2470ee、及び5:3アスペクト比ツール2470fから対応する3:5アスペクト比ツール2470ffに変更する)。
In FIG. 24M, the
図24Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ2450nを検出する。図24Oに示すように、タップジェスチャ2450nを検出したことに応答して、デバイス600は、視覚境界部608(例えば、視覚部分1404)に取り囲まれた視覚コンテンツを含む、表現2430hを表示する。したがって、表現2430hは、3:2アスペクト比のアスペクト比を有し、これは、タップジェスチャ2450mを検出したことに応答して、表示された。タップジェスチャ2450nがまた、アスペクト比調整モードで動作しないようにデバイス600を構成するため、デバイス600は、画像コンテンツ編集ツールアフォーダンス2218を再表示し、かつアスペクト比編集ツールアフォーダンス2470の表示を停止する。
In FIG. 24N, the
図24Oでは、デバイス600は、フリップコントロールアフォーダンス2402aに対応する場所でのタップジェスチャ2450oを検出する。図24Pに示すように、タップジェスチャ2450oを検出したことに応答して、デバイス600は、表現2430iを表示する。表現2430iは、表現2430hの視覚コンテンツから水平に反転された(例えば、水平鏡像を作成する)視覚コンテンツを含む。例えば、矩形プリズム2432上に座っている人は、表現2430h内の右側から表現2430iの左側に移動している。いくつかの実施形態では、別のフリップコントロールアフォーダンス上のジェスチャ2450oを検出したことに応答して、デバイス600は、表現を垂直にフリップし(例えば、垂直ミラーを作成する)、ここで、鳥2440は、調整された表現の底部に表示される。
In FIG. 24O, the
図24Pでは、デバイス600は、回転コントロールアフォーダンス2402bに対応する場所でのタップジェスチャ2450pを検出する。図24Qに示すように、タップジェスチャ2450pを検出したことに応答して、デバイス600は、表現2430iを回転させて、表現2430jを表示する。表現2430jは、2:3アスペクト比を有し、これは、表現2430iの逆のアスペクト比である。しかしながら、ジェスチャが水平アスペクト比コントロールアフォーダンス626c1又は垂直アスペクト比コントロールアフォーダンス626c2に向けられていると検出されたときとは対照的に、デバイス600は、回転コントロールアフォーダンス2402bに対応する場所でのジェスチャに応答して、表現全体を回転させる。
In FIG. 24P,
図24Qでは、デバイス600は、リセットアフォーダンス2402dに対応する場所でのタップジェスチャ2450qを検出する。図24Rに示すように、リセットアフォーダンス2402d上のタップジェスチャ2450qを検出したことに応答して、デバイス600は、表現2430bを表示し、図24B〜図24Qにおける表現を行う調整を行わない。調整を再設定すると、デバイス600は、調整可能な画像コンテンツコントロール2258a〜2258cに対応する以前の調整された値を再設定する(デバイス600が調整可能な水平遠近歪コントロール2258c上の水平遠近歪インジケーション2258c1を図24Iのその初期位置に動かすことによって示されるように)。その結果、画像コンテンツ値インジケータ2248a〜2248cは、調整可能な画像コンテンツコントロール2258a〜2258cの周りの表示を停止させる。
In FIG. 24Q, the
図24Rでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ2450rを検出する。図24Sに示すように、タップジェスチャ2450rを検出したことに応答して、デバイス600は、追加の入力なしで自動的に、表現2430kを表示する。表現2430kは、デバイス600が自動調整アルゴリズムに基づいて調整された表現2430bのバージョンである。図24Rにおいて、水平線2438の位置、垂直遠近歪(例えば、収束がより少ない垂直線2434a〜2434c)、及び水平遠近歪(例えば、収束がより少ない水平線2436a〜2436b)は、表現2430aの水平線2438の位置、垂直遠近歪、水平遠近歪とは異なる。
In FIG. 24R, the
図24Sでは、デバイス600は、取消アフォーダンス1036dに対応する場所でのタップジェスチャ2450sを検出する。図24Tに示すように、タップジェスチャ2450sを検出したことに応答して、デバイス600は、任意の調整なしのキャプチャされたメディアの表現である表現2430aを表示する。図24Tでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのジェスチャ2450tを検出する。図24Uに示すように、タップジェスチャ2450tを検出したことに応答して、デバイス600は、追加の入力なしで自動的に、表現2430kを表示し、ここで、表現2430a(例えば、表現2430bと同じ)は、自動調整アルゴリズムに基づいて調整されている。
In FIG. 24S, the
図24Uでは、デバイス600は、表現2430kに向けられたジェスチャ2450u(例えば、スワイプジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450uを検出したことに応答して、デバイス600は、キャプチャされたメディアの表現2480aを表示する。図24Vにおいて、キャプチャされたメディアは、ライブアニメーション化された画像メディアに対応する。
In FIG. 24U,
図24V〜図24ABは、アニメーション化された画像メディア(例えば、図24V〜図24Y)及びビデオメディア(例えば、図24Z〜図24AB)を編集するように構成されているデバイス600を示す。具体的には、図24V〜図24ABは、デバイス600がアニメーション化された画像メディア及びビデオ画像メディアを編集するように構成されるときに、メディア編集ユーザインタフェースが類似のユーザインタフェース要素を表示することを示す。メディアの視覚特性(例えば、輝度、自動視覚特性値)を使用して、アニメーション化された画像メディア及びビデオ画像メディアを編集する、図22AE〜図22AMとは対照的に、図24V〜図24ABは、画像コンテンツを使用して、アニメーション化された画像メディア及びビデオ画像メディアを類似の方法(例えば、表現の水平線の位置を変更する)で編集することを示す。
24V to 24AB show a
図24Vに示すように、デバイス600は、キャプチャされたアニメーション化された画像メディアの表現2480kを表示する。表現2480kがアニメーション化された画像メディアの表現であるため、デバイス600は、アニメーション化された画像メディア編集モードアフォーダンス2210eを表示する。アニメーション化された画像メディア編集モードアフォーダンス2210eの下のモード選択インジケータ2202eによって示されるように、アニメーション化された画像メディア編集モードアフォーダンス2210eが選択されるため、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を表示する(例えば、図22AEに関連して上述したように)。
As shown in FIG. 24V, the
図24Vでは、デバイス600は、画像コンテンツ編集モードアフォーダンス2210dに対応する場所でのタップジェスチャ2450vを検出する。図24Wに示すように、タップジェスチャ2450vを検出したことに応答して、デバイス600は、アニメーション化された画像メディア内の表現2480k(又はサムネイル表現2420k)の場所に対応する位置に、スクラバインジケーションコントロール2240aとともにスクラバ2240を表示する。更には、デバイス600は、アニメーション化された画像メディアアフォーダンス2220を、画像コンテンツ編集ツールアフォーダンス2218に置き換え、画像コンテンツ編集モードアフォーダンス2210dの下にモード選択インジケータ2202dを、図24Cに関連して論じられるものと同様の技術を使用して表示する。
In FIG. 24V, the
図24Wでは、デバイス600は、タップジェスチャ2450wを検出する。図24Xに示すように、タップジェスチャ2450wを検出したことに応答して、デバイス600は、(例えば、自動的に、ユーザ入力なしで)、表現2480kをまっすぐにして、表現2480lを表示する。図24Xでは、デバイス600は、スクラバ2240に向けられたジェスチャ2450x(例えば、左向きドラッグジェスチャ)を検出する。図24Vに示すように、ジェスチャ2450xを検出したことに応答して、デバイス600は、スクラバインジケーションコントロール2240aを、スクラバ2240上の新しい位置に動かす。具体的には、デバイス600は、スクラバインジケーションコントロール2240aを、図24Xのスクラバインジケーションコントロール2240aの位置の左にある新しい位置に動かす。更に、ジェスチャ2450xを検出したことに応答して、デバイス600は、表現2480lを、表現2480mに置き換える。表現2480mは、スクラバ2240上のスクラバインジケーションコントロール2240aの新しい位置に対応する時点のアニメーション化された画像のうちの1つを示す。したがって、表現2480mは、表現2480l(例えば、又は2480k)が対応するアニメーション化された画像メディア内の時間とは異なる、アニメーション化された画像メディア内の時間に対応する。図24Vに示すように、表現2480kを表示している間に、デバイス600が画像コンテンツ編集ツールアフォーダンス2218の1つ以上の現在値を調整して、表現2480lを表示したが、表現2480mはまた、画像コンテンツ編集ツールアフォーダンス2218の調整された1つ以上の現在値に基づいて調整された。したがって、アニメーション化された画像メディア内の特定の時点での表現のうちの1つを調整することはまた、アニメーション化された画像メディア内の異なる時点での他の表現を調整する。そのため、デバイス600が1つ以上の画像コンテンツ編集ツール値に関連付けられた1つ以上の現在値を調整している間に、アニメーション化された画像メディアの表現が表示されない場合であっても、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の表現への変化を閲覧できる。デバイス600は、図24Z〜図24ABに示すように、ビデオメディアについての類似のプロセスを完了する。図24AA及び図24ABに示すように、図24Z〜24AAにおける画像コンテンツ値を調整した後、デバイス600は、ユーザがスクラバ2240を使用して、1つ以上の現在値を調整した後の異なる表現への変化を閲覧できる。
In FIG. 24W, the
図25A〜図25Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2500は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
25A-25B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments.
後述するように、方法2500は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)を介して、第1の視覚メディア(例えば、画像、ビデオのフレーム)の第1の表現(例えば、表現2430a〜2430k)(2504)と、第1の視覚メディアの遠近歪(例えば、2218−c)(例えば、(画像の現在の水平線、垂直線、平行線の)歪み状態、遠近歪状態)に対する現在の調整量(例えば、垂直度、水平度、又は水平線調整度)のインジケーション(例えば、2258a1〜2258c1)(例えば、スライダ上の第1の位置にあるスライダコントロール)を含む調整可能なコントロール(2506)(例えば、2258a〜2258c)(例えば、グラフィカルコントロール要素(例えば、スライダ))と、を同時に表示することを含む第1のユーザインタフェース(例えば、クロッピングユーザインタフェース及び/又はプロスペクティブ編集ユーザインタフェース)を表示する(2502)。
The electronic device (eg, 600) has a first representation (eg,
いくつかの実施形態では、第1のユーザインタフェースは、第1のアフォーダンス(例えば、2218c)を含み(2508)、第1のアフォーダンスは、選択されると、第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの水平遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、水平遠近歪調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が水平遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2545c)を構成する。いくつかの実施形態では、第1のユーザインタフェースは、第2のアフォーダンス(例えば、2218b)を含み(2510)、第2のアフォーダンスは、選択されると、第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、調整可能なコントロールのインジケーションを更新し、かつユーザ入力に基づいて第1の視覚メディアの垂直遠近歪に対する現在の調整量の調整を可能にするように調整可能なコントロールを構成する。いくつかの実施形態では、垂直遠近歪調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの遠近歪の現在の調整量が垂直遠近歪の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454b)を構成する。 In some embodiments, the first user interface comprises a first affordance (eg, 2218c) (2508), and the first affordance, when selected, is for horizontal perspective distortion of the first visual media. The adjustable control interface is updated to indicate the current adjustment amount, and can be adjusted to allow adjustment of the current adjustment amount for the horizontal perspective distortion of the first visual media based on user input. Controls. In some embodiments, in response to detecting a tap on the horizontal perspective distortion adjustment affordance, the electronic device determines that the current adjustment amount of the perspective distortion of the first visual medium is the current adjustment amount of the horizontal perspective distortion adjustment. Adjustable controls (eg, 2545c) are configured to correspond to the quantity. In some embodiments, the first user interface comprises a second affordance (eg, 2218b) (2510), and the second affordance, when selected, is for vertical perspective distortion of the first visual media. The adjustable control interface is updated to indicate the current adjustment amount, and can be adjusted to allow adjustment of the current adjustment amount for vertical perspective distortion of the first visual media based on user input. Controls. In some embodiments, in response to detecting a tap on the vertical perspective distortion adjustment affordance, the electronic device determines that the current adjustment amount of the perspective distortion of the first visual medium is the current adjustment amount of the vertical perspective distortion adjustment. Adjustable controls (eg, 2454b) are configured to correspond to the quantity.
いくつかの実施形態では、第1のアフォーダンス(例えば、2218c)及び第2のアフォーダンス(例えば、2218b)を(例えば、同時に)表示している間に、選択されると、第1の視覚メディアの第1の表現内の視覚コンテンツを回転させる現在の調整量を示す(例えば、視覚コンテンツ内の第1の実視水平線をまっすぐにする)ように、調整可能なコントロールのインジケーションを更新する、第3のアフォーダンス(例えば、2218a)を同時に表示する(2512)。いくつかの実施形態では、視点矯正調整アフォーダンス上のタップを検出したことに応答して、電子デバイスは、第1の視覚メディアの水平線補正の現在の調整量が水平線補正の調整の現在の量に対応するように、調整可能なコントロール(例えば、2454a)を構成する。 In some embodiments, when selected while displaying the first affordance (eg, 2218c) and the second affordance (eg, 2218b) (eg, at the same time), the first visual media. Update the indication of the adjustable control to indicate the current amount of adjustment to rotate the visual content in the first representation (eg, straighten the first real-view horizon in the visual content). 3 affordances (eg, 2218a) are displayed simultaneously (2512). In some embodiments, in response to detecting a tap on the viewpoint correction adjustment affordance, the electronic device causes the current adjustment amount of the horizon correction of the first visual medium to be the current amount of the horizon correction adjustment. Correspondingly, an adjustable control (eg, 2454a) is configured.
表示デバイス上に、第1のユーザインタフェースを表示している間に、電子デバイスは、調整可能なコントロール(例えば、2258a〜2258c)に向けられた(例えば、上で)ジェスチャ(例えば、スワイプ又はドラッグジェスチャ)を含むユーザ入力(例えば、2450d、2450g、2450i)を検出する(2514)。 While displaying the first user interface on the display device, the electronic device is directed (eg, on) a gesture (eg, swipe or drag) towards an adjustable control (eg, 2258a-2258c). It detects user inputs (eg, 2450d, 2450g, 2450i) that include gestures (2514).
調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出したことに応答して、電子デバイスは、表示デバイス上に、ジェスチャの大きさに基づいて選択された遠近歪に対するそれぞれの調整量(例えば、ジェスチャが第1の大きさを有するときに第1の量によって現在の量の遠近歪を調整する、及びジェスチャが第1の大きさとは異なる第2の大きさを有するときに第1の量とは異なる第2の量によって遠近歪を調整する現在の量の遠近歪)で第1の視覚メディア(例えば、画像、ビデオのフレーム)の第2の表現(例えば、2530c〜2430k)を表示する(2516)。いくつかの実施形態では、第2の表現が特定の場所(例えば、表示を停止する前の第1の表現の以前の場所)に表現されると、第2の表現を、第1の表現に置き換える。編集可能パラメータを調整する調整可能なコントロールを提供すること、及び調整可能なコントロールに向けられた入力に応答して、調整された表現を表示することにより、ユーザが意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a user input containing a gesture directed at an adjustable control, the electronic device, on the display device, each adjustment amount (eg, for example) for perspective distortion selected based on the size of the gesture. , Adjust the perspective distortion of the current quantity by the first quantity when the gesture has the first magnitude, and the first quantity when the gesture has a second magnitude different from the first magnitude. Display a second representation (eg, 2530c to 2430k) of the first visual medium (eg, image, video frame) with the current amount of perspective distortion that adjusts the perspective distortion by a second quantity different from (2516). In some embodiments, when the second expression is expressed in a particular place (eg, the place before the first expression before the display is stopped), the second expression becomes the first expression. replace. The user unintentionally modifies the representation by providing an adjustable control that adjusts the editable parameters and displaying the adjusted representation in response to input directed to the adjustable control. By avoiding this and at the same time allowing the user to recognize that the input to the adjustable control changes the representation based on the input, it provides the user with more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、遠近歪は、水平遠近歪(例えば、2218c、2436a〜2436b)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の水平遠近歪の量は、第1の視覚メディアの第2の表現の水平遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、水平遠近歪が少ない。 In some embodiments, the perspective strain corresponds to a horizontal perspective strain (eg, 2218c, 2436a-2436b). In some embodiments, the amount of horizontal perspective distortion of the first representation of the first visual medium is different from the amount of horizontal perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less horizontal perspective distortion.
いくつかの実施形態では、遠近歪は、垂直遠近歪(例えば、2218b、2434a〜2434b)(例えば、実世界で平行な線は画像内では平行線でないように、カメラ角度及び/又はレンズによって引き起こされる画像の歪み)に対応する。いくつかの実施形態では、第1の視覚メディアの第1の表現の垂直遠近歪の量は、第1の視覚メディアの第2の表現の垂直遠近歪の量とは異なる。いくつかの実施形態では、第1の表現は、垂直遠近歪が少ない。 In some embodiments, the perspective distortion is caused by the camera angle and / or lens so that the vertical perspective distortion (eg, 2218b, 2434a-2434b) (eg, parallel lines in the real world are not parallel lines in the image). Corresponds to image distortion). In some embodiments, the amount of vertical perspective distortion of the first representation of the first visual medium is different from the amount of vertical perspective distortion of the second representation of the first visual medium. In some embodiments, the first representation has less vertical perspective distortion.
いくつかの実施形態では、第1の表現は、第1の実視水平線(例えば、2218a、2238)を含む。いくつかの実施形態では、第1の視覚メディアの第1の表現が、第1の視覚メディアの表現内の視覚境界部に対する回転度(例えば、画像内の水平線(例えば、スカイライン))を含む間に、電子デバイスは、第1の視覚メディアの表現の回転度を変化させる入力を電子デバイス検出する。いくつかの実施形態では、第1の視覚メディアの表現の回転度を変化させる入力(例えば、表現内の水平線をまっすぐにするために表現内の視覚コンテンツを回転する)を検出したことに応答して、電子デバイスは、入力に基づいて判定された量だけ第1の視覚メディアの表現を回転する(例えば、画像の縁部に対して画像の水平線がまっすぐになるように、第1の視覚メディアの表現を回転する)。 In some embodiments, the first representation includes a first real-view horizon (eg, 2218a, 2238). In some embodiments, while the first representation of the first visual medium includes a degree of rotation (eg, a horizon in the image (eg, skyline)) with respect to a visual boundary within the representation of the first visual media. In addition, the electronic device detects an input that changes the degree of rotation of the representation of the first visual medium. In some embodiments, it responds to detecting an input that changes the degree of rotation of the representation in the first visual medium (eg, rotating the visual content in the representation to straighten the horizon in the representation). The electronic device then rotates the representation of the first visual media by an amount determined based on the input (eg, the first visual media so that the horizontal line of the image is straight with respect to the edges of the image). Rotate the expression of).
いくつかの実施形態では、第1の表現(例えば、2430g)は、第1の視覚メディアの第1の視覚コンテンツを含む。いくつかの実施形態では(例えば、図24K〜図24L)、第1の視覚メディアの第1の表現が第1の視覚コンテンツ(例えば、メディアがキャプチャされたときにキャプチャされたコンテンツ)を含む間に、電子デバイスは、第1の表現のコンテンツを変化させる1組の1つ以上の入力(例えば、自動調整アフォーダンス上でのタップ、画像をクロップするために第1の位置から第2の位置への視覚境界部のドラッグ)を検出する。いくつかの実施形態では(例えば、図24K〜図24L)、第1の視覚メディアの第1の表現のコンテンツを変化させる1組の1つ以上の入力を検出したことに応答して、電子デバイスは、第1の視覚メディアの第1の視覚コンテンツとは異なる第1の視覚メディアの第2の視覚コンテンツを含む第1の視覚メディアの第4の表現を表示する。いくつかの実施形態では(例えば、図24K〜図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより多く含む。いくつかの実施形態では(例えば、図24K〜図24L)、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では、第3の表現は、第1の表現に含まれる視覚コンテンツよりも、第1の視覚メディアの視覚コンテンツをより少なく含む。いくつかの実施形態では(例えば、図24K〜24L)、第2の視覚コンテンツは、追加のコンテンツ(例えば、第1の表現に表されない視覚コンテンツデータ(例えば、メディアをキャプチャしたときからの、動作に有用なコンテンツ及びデータ)を含む、第2の視覚メディアに対応するファイルからのコンテンツ)である。 In some embodiments, the first representation (eg, 2430 g) includes the first visual content of the first visual medium. In some embodiments (eg, FIGS. 24K to 24L), while the first representation of the first visual media includes the first visual content (eg, the content captured when the media was captured). In addition, the electronic device is a set of one or more inputs that change the content of the first representation (eg, tap on auto-adjustment affordance, from first position to second position to crop the image. (Drag of the visual boundary) is detected. In some embodiments (eg, FIGS. 24K to 24L), the electronic device responds by detecting one or more sets of inputs that alter the content of the first representation of the first visual medium. Displays a fourth representation of the first visual media that includes a second visual content of the first visual media that is different from the first visual content of the first visual media. In some embodiments (eg, FIGS. 24K to 24L), the third representation contains more visual content of the first visual media than the visual content contained in the first representation. In some embodiments (eg, FIGS. 24K to 24L), the third representation contains less visual content of the first visual media than the visual content contained in the first representation. In some embodiments, the third representation contains less visual content of the first visual medium than the visual content contained in the first representation. In some embodiments (eg, FIGS. 24K-24L), the second visual content is an operation from when additional content (eg, visual content data not represented in the first representation (eg, media is captured)). Content from a file that corresponds to a second visual medium), including content and data) that are useful to.
いくつかの実施形態では、第1のユーザインタフェースは、自動調整アフォーダンス(例えば、1036b)を含む。いくつかの実施形態では(例えば、図24R)、電子デバイスは、自動調整アフォーダンスに対応する入力(例えば、タップジェスチャ)を検出する。いくつかの実施形態では(例えば、図24R〜図24S)、自動調整アフォーダンスに対応する入力を検出したことに応答して、電子デバイスは、自動的に(例えば、更なるユーザ入力なしで;値を指定するユーザ入力なしで)、水平遠近歪パラメータ(例えば、水平遠近歪補正量)、垂直遠近歪パラメータ(例えば、垂直遠近歪補正量)、回転パラメータ(例えば、回転量)からなる群から選択される第1の視覚メディアの2つ以上のパラメータの現在値を、(例えば、第1の視覚メディアのアルゴリズム及び特性に基づいて)調整する。いくつかの実施形態では、2つ以上のパラメータの選択された現在値の大きさ、方向は、視覚メディアのコンテンツの分析に基づいて、デバイスによって自動的に選択される(例えば、視覚メディアの分析に基づいて、より多くの水平遠近歪が検出されると、より多くの水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない水平遠近歪が検出されると、より少ない水平遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの垂直遠近歪が検出されると、より多くの垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より少ない垂直遠近歪が検出されると、より少ない垂直遠近歪補正が選択され、視覚メディアの分析に基づいて、より多くの水平線回転が検出されると、より多くの回転が選択され、視覚メディアの分析に基づいて、より少ない水平線回転が検出されると、より少ない回転が選択される)。いくつかの実施形態では、デバイスは、水平遠近歪パラメータ(例えば、量の水平遠近歪補正)、垂直遠近歪パラメータ(例えば、量の垂直遠近歪補正)、及び回転パラメータ(例えば、回転量)、及び視覚コンテンツパラメータへ変更を自動的に適用する。いくつかの実施形態では、視覚コンテンツの表現は、他のパラメータを調整している間に、(例えば、より多くの又は少ないコンテンツを表示するために)自動的にクロップされる。いくつかの実施形態では、自動調整アフォーダンスに対応する入力を検出したことに応答して、電子デバイスは、2つ以上の調整されたパラメータの調整された現在値に基づいて、第1の視覚メディアの第5の表現を(例えば、自動的に)表示する。自動調整アルゴリズムに基づいて表現を自動的に更新することにより、ユーザは、自動調整アルゴリズムが表現をどのように変化したかを迅速に判定することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first user interface comprises an auto-tuning affordance (eg, 1036b). In some embodiments (eg, FIG. 24R), the electronic device detects an input (eg, tap gesture) that corresponds to an auto-adjustment affordance. In some embodiments (eg, FIGS. 24R-24S), the electronic device automatically (eg, without further user input; value; in response to detecting an input corresponding to the self-adjusting quantity. Select from the group consisting of horizontal perspective distortion parameter (for example, horizontal perspective distortion correction amount), vertical perspective distortion parameter (for example, vertical perspective distortion correction amount), and rotation parameter (for example, rotation amount). The current values of two or more parameters of the first visual media to be adjusted are adjusted (eg, based on the algorithm and characteristics of the first visual media). In some embodiments, the magnitude and orientation of the selected current values of two or more parameters are automatically selected by the device based on the analysis of the visual media content (eg, visual media analysis). If more horizontal perspective distortion is detected based on, more horizontal perspective distortion correction is selected, and if less horizontal perspective distortion is detected based on visual media analysis, less horizontal perspective distortion is detected. When distortion correction is selected and more vertical perspective distortion is detected based on visual media analysis, more vertical perspective correction is selected and less vertical perspective distortion is detected based on visual media analysis. When is detected, less vertical perspective distortion correction is selected and based on the analysis of the visual media, when more horizontal line rotations are detected, more rotations are selected and based on the analysis of the visual media. , If less horizontal line rotation is detected, less rotation is selected). In some embodiments, the device comprises horizontal perspective distortion parameters (eg, quantitative horizontal perspective distortion correction), vertical perspective distortion parameters (eg, quantitative vertical perspective distortion correction), and rotation parameters (eg, amount of rotation). And automatically apply changes to visual content parameters. In some embodiments, the representation of the visual content is automatically cropped (eg, to display more or less content) while adjusting other parameters. In some embodiments, in response to detecting an input corresponding to an auto-adjusted affordance, the electronic device is a first visual medium based on the adjusted current values of two or more adjusted parameters. Display the fifth expression of (eg, automatically). By automatically updating the representation based on the auto-tuning algorithm, the user can quickly determine how the auto-tuning algorithm has changed the representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では(例えば、24R〜24U)、自動調整アフォーダンスを含む第1のユーザインタフェースを表示している間に、電子デバイスは、第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力(例えば、第3のユーザインタフェースをナビゲーションするアフォーダンス上でのタップ)を検出する。いくつかの実施形態では(例えば、24R〜24U)、第2の1組の1つ以上の入力を検出したことに応答して、電子デバイスは、(例えば、メディア編集ユーザインタフェースを表示する前に、メディア編集ユーザインタフェースを表示した後に)表示デバイス上に、第3のユーザインタフェース(例えば、メディアビューワインタフェース(例えば、メディアギャラリー))を表示する。いくつかの実施形態では(例えば、24R〜24U)、第3のユーザインタフェースを表示することは、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現を表示することを含む。いくつかの実施形態では(例えば、24R〜24U)、第2の視覚メディアが視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現に表されない視覚コンテンツ)(例えば、第2の視覚メディアに対応するファイルは、表現に表されない視覚コンテンツデータ(例えば、編集動作を含む、動作に有用なコンテンツ及びデータ)を含む)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含むという判定に従って、電子デバイスは、自動調整インタフェース(例えば、図24Rの1036b)を表示する。いくつかの実施形態では、第2の視覚メディアが視覚コンテンツ(例えば、第2の視覚メディアの視覚コンテンツの少なくとも一部分の表現に表されない視覚コンテンツ)の所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まないという判定に従って、電子デバイスは、自動調整インタフェースを表示するのをやめる。 In some embodiments (eg, 24R-24U), the electronic device provides a third user interface that is different from the first user interface while displaying a first user interface that includes an auto-tuning affordance. Detects one or more inputs in a second set corresponding to the request to be displayed (eg, taps on affordances navigating the third user interface). In some embodiments (eg, 24R-24U), in response to detecting one or more inputs in a second set, the electronic device (eg, before displaying the media editing user interface) Display a third user interface (eg, media viewer interface (eg, media gallery)) on the display device (after displaying the media edit user interface). In some embodiments (eg, 24R-24U), displaying the third user interface comprises displaying at least a portion of the visual content of the second visual medium. In some embodiments (eg, 24R-24U), the second visual media is visual content (eg, visual content that is not represented in the representation of at least a portion of the visual content of the second visual media) (eg, second The file corresponding to the visual media is outside a predetermined spatial boundary (eg, an initial capture of the visual content) of unrepresented visual content data (eg, content and data useful for the action, including editing actions). The electronic device displays an auto-tuning interface (eg, 1036b in FIG. 24R) according to the determination that it contains additional visual content outside the frame being framed, or outside the currently cropped frame of the visual content. In some embodiments, the second visual media is outside a predetermined spatial boundary of the visual content (eg, visual content that is not represented in the representation of at least a portion of the visual content of the second visual media) (eg, visual content). The electronic device ceases to display the auto-tuning interface according to the determination that it does not contain any additional visual content that is outside the originally captured frame of the visual content or outside the currently cropped frame of the visual content.
いくつかの実施形態では(例えば、24R〜24U)、第1の視覚メディアの第1の表現は、第1の視覚メディアがキャプチャされたときにもまた、キャプチャされた視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側、又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツを含まない第1の視覚メディアの視覚コンテンツの第1の部分の表現である(例えば、基づく)。いくつかの実施形態では、第1の視覚メディアの第2の表現は、第1の視覚メディアがキャプチャされたときにもまたキャプチャされた、視覚コンテンツの所定の空間的境界の外側(例えば、視覚コンテンツの当初キャプチャされたフレームの外側又は視覚コンテンツの現在クロッピングされているフレームの外側)にある追加の視覚コンテンツの少なくとも一部分を含む(例えば、第2の表現の遠近歪は、第1の表現を生成するために使用されなかった視覚コンテンツデータ(例えば、第2のメディアがキャプチャされた時点でキャプチャ又は記憶されたコンテンツデータ)を使用して生成された)。 In some embodiments (eg, 24R-24U), the first representation of the first visual media also when the first visual media is captured, the predetermined spatial of the captured visual content. The first visual content of the first visual media that does not contain additional visual content outside the boundaries (eg, outside the originally captured frame of the visual content, or outside the currently cropped frame of the visual content). Is a representation of the part (eg, based). In some embodiments, the second representation of the first visual media is outside the predetermined spatial boundaries of the visual content that was also captured when the first visual media was captured (eg, visual). The perspective distortion of the second representation contains at least a portion of the additional visual content that is outside the originally captured frame of the content or outside the currently cropped frame of the visual content (eg, the perspective distortion of the second representation makes the first representation. Visual content data that was not used to generate (eg, content data that was captured or stored when the second media was captured).
いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1のアスペクト比で表示される(例えば、図24J)。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を検出する。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応答して、電子デバイスは、第1のアスペクト比とは異なる第2のアスペクト比で第1の視覚メディアの第6の表現を表示する(例えば、図24K)。いくつかの実施形態では、アスペクト比ボタンは、第1の視覚メディアの表現のアスペクト比を調整するために使用される調整可能なコントロール(例えば、スライダ)を有する。ユーザ入力を受信したことに応答して、以前に表示されたアスペクト比のアスペクト比を自動的に変更することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first representation of the first visual medium is displayed in the first aspect ratio (eg, FIG. 24J). In some embodiments, the first user interface includes aspect ratio affordances (eg, 626c). In some embodiments, the electronic device detects the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium. In some embodiments, in response to detecting a user input corresponding to the aspect ratio affordance, the electronic device has a sixth aspect ratio of the first visual medium with a second aspect ratio different from the first aspect ratio. Is displayed (for example, FIG. 24K). In some embodiments, the aspect ratio button has an adjustable control (eg, a slider) used to adjust the aspect ratio of the representation of the first visual media. By automatically changing the aspect ratio of the previously displayed aspect ratio in response to receiving user input, the user can see the change in aspect ratio to the expression without rotating the expression. can. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の視覚メディアの第1の表現は、第1の向き(例えば、元の向き、非回転の向き)で表示される。いくつかの実施形態では、第1のアスペクト比は、第1の水平アスペクト値(例えば、長さ)及び第1の垂直アスペクト値(例えば、2430d)を有する。いくつかの実施形態では、第1のユーザインタフェースは、アスペクト比アフォーダンスを含む(例えば、626c1又は626c2)。いくつかの実施形態では、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、アスペクト比アフォーダンスに対応するユーザ入力を表示する(例えば、2450m)。いくつかの実施形態では、アスペクト比アフォーダンスに対応するユーザ入力を検出したことに応答して、電子デバイスは、第1の視覚メディアの第1の表現を回転させることなく、第1のアスペクト比とは異なる第3のアスペクト比に対応する第1の視覚メディアの一部分を示す視覚的フィードバックを表示する(例えば、図24N;608)。いくつかの実施形態では、第3のアスペクト比は、第1の垂直アスペクト比値と等しい第2の水平アスペクト比値を有する。いくつかの実施形態では、第3のアスペクト比は、第1の水平アスペクト比値と等しい第2の垂直アスペクト比値を有する(例えば、第2のアスペクト比は、第1のアスペクト比値の反転(例えば、逆数)である(例えば、3:4と比較して4:3、9:16と比較して16:9))。ユーザ入力を受信したことに応答して、以前に表示されたアスペクト比の逆のアスペクト比を自動的に表示することにより、ユーザは、表現を回転させることなく、表現に対するアスペクト比の変化を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first representation of the first visual medium is displayed in a first orientation (eg, original orientation, non-rotating orientation). In some embodiments, the first aspect ratio has a first horizontal aspect value (eg, length) and a first vertical aspect value (eg, 2430d). In some embodiments, the first user interface comprises an aspect ratio affordance (eg, 626c1 or 626c2). In some embodiments, while displaying the first representation of the first visual medium, the electronic device displays the user input corresponding to the aspect ratio affordance (eg, 2450 m). In some embodiments, in response to detecting a user input corresponding to the aspect ratio feedback, the electronic device with the first aspect ratio without rotating the first representation of the first visual media. Displays visual feedback showing a portion of the first visual media corresponding to a different third aspect ratio (eg, FIG. 24N; 608). In some embodiments, the third aspect ratio has a second horizontal aspect ratio value equal to the first vertical aspect ratio value. In some embodiments, the third aspect ratio has a second vertical aspect ratio value equal to the first horizontal aspect ratio value (eg, the second aspect ratio is the inversion of the first aspect ratio value). (For example, the inverse number) (for example, 4: 3 compared to 3: 4 and 16: 9 compared to 9:16). By automatically displaying the opposite aspect ratio of the previously displayed aspect ratio in response to receiving user input, the user sees the change in aspect ratio to the expression without rotating the expression. be able to. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含む(例えば、ライブフォト又はビデオ)(例えば、図24Y〜図24AB)という判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示する。いくつかの実施形態では(例えば、図24Y〜図24AB)、第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含まないという判定に従って、電子デバイスは、画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、第1の視覚メディアに対応するコンテンツの、どのフレームが表示されるかを調整する調整可能なコントロールを表示するのをやめる。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is subject to determination that the first visual medium comprises multiple frames of content corresponding to different times (eg, live photo or video) (eg, FIGS. 24Y-24AB). Display an adjustable control that adjusts which frame of the content corresponding to the first visual media is displayed, along with one or more controls that adjust the perspective distortion, cropping, and / or rotation of the image. In some embodiments (eg, FIGS. 24Y-24AB), according to the determination that the first visual medium does not contain frames of multiple contents corresponding to different times, the electronic device distorts the image, crops, and so on. And / or stop displaying an adjustable control that adjusts which frame of the content corresponding to the first visual media is displayed, along with one or more controls that adjust the rotation. By displaying frames of content in different time frames within the visual media, users can change to editable parameters without having to reapply specific changes to the editable parameters for each frame of the media. You can give visual feedback on how it affects two or more specific frames of media (eg, video). The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では(例えば、図24Y〜図24AB)、視覚境界部(例えば、608)は、第1の視覚メディアの第7の表現であって、第7の表現が、第1の視覚メディア内の第1の時間に対応する、第7の表現の第1の部分の周囲に表示される。いくつかの実施形態では、第1の視覚メディアに対応するコンテンツの、どのフレームが表示されるかを調整する調整可能なコントロール(例えば、2240、2240a)を表示している間に、電子デバイスは、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出する。いくつかの実施形態では、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応答して、電子デバイスは、第1の視覚メディア内の第2の時間(例えば、ビデオ内の6分間)に対応する第1の視覚メディアの第8の表現を表示する。いくつかの実施形態では(例えば、図24Y〜図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する要求を検出したことに応答して、電子デバイスは、視覚境界部の表示を維持する。いくつかの実施形態では、視覚境界部は、第1の視覚メディアの第8の表現の第1の部分の周囲に表示される。いくつかの実施形態では(例えば、図24Y〜図24AB)、それぞれの時間に対応する第1の視覚メディアの時間ベースの表現を選択する調整可能なコントロール(例えば、表示されている表現に基づいて更新されない)は、表示デバイス上のそれぞれの場所(例えば、固定の場所)に表示される(例えば、ビデオ上の固定の場所に表示されたクロッピングフレーム、クロッピングフレームは、異なるビデオのフレームが表示されている間に固定の場所に留まる)。視覚メディア内の異なる時間フレームでのコンテンツのフレームを表示することにより、ユーザは、ユーザがメディアの各フレームに、編集可能パラメータに特定の変更を再適用する必要なく、編集可能パラメータへの変化がメディア(例えば、ビデオ)の2つ以上の特定のフレームにどのように影響するかの視覚的フィードバックをすることができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24Y-24AB), the visual boundary (eg, 608) is the seventh representation of the first visual medium, with the seventh representation being the first vision. It is displayed around the first part of the seventh representation, which corresponds to the first time in the media. In some embodiments, the electronic device displays an adjustable control (eg, 2240, 2240a) that adjusts which frame of the content corresponding to the first visual medium is displayed. Detects the request to select a time-based representation of the first visual media corresponding to each time. In some embodiments, in response to detecting a request to select a time-based representation of the first visual media corresponding to each time, the electronic device has a second in the first visual media. Display an eighth representation of the first visual media corresponding to the time (eg, 6 minutes in the video). In some embodiments (eg, FIGS. 24Y to 24AB), the electronic device is visual in response to detecting a request to select a time-based representation of the first visual medium corresponding to each time. Maintain the display of the boundary. In some embodiments, the visual border is displayed around the first portion of the eighth representation of the first visual medium. In some embodiments (eg, FIGS. 24Y-24AB), an adjustable control (eg, based on the displayed representation) that selects a time-based representation of the first visual media corresponding to each time. (Not updated) will be displayed in each location on the display device (eg, fixed location) (eg, cropping frames displayed in fixed locations on the video, cropping frames will display different video frames Stay in a fixed place while you are). By displaying frames of content in different time frames within the visual media, users can change to editable parameters without having to reapply specific changes to the editable parameters for each frame of the media. You can give visual feedback on how it affects two or more specific frames of media (eg, video). The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの第1の表現は、第1のズームレベル(例えば、1×ズーム;第1の倍率レベル)で表示される。いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの第1の表現を表示している間に、電子デバイスは、第1の視覚メディアの表現のズームレベルを変更する要求(例えば、2450e)(例えば、ピンチ又はデピンチジェスチャ)を検出する。いくつかの実施形態では(例えば、図24C〜図24F)、第1の視覚メディアの表現のズームレベルを変更する要求を検出したことに応答して、電子デバイスは、第1のズームレベルとは異なる第2のズームレベル(例えば、2×ズーム)で(例えば、表現のズームレベルを変更することに向けられたジェスチャの大きさに基づいて)第1の視覚メディアの第9の表現を表示する。いくつかの実施形態では(例えば、図24C〜図24F)、電子デバイスは、第2のズームレベルで画像を調整/編集するように構成される。いくつかの実施形態では、第9の表現が第1のズームレベルで表示される間(例えば、図24C〜図24F)、電子デバイスは、視覚メディアの別の表現が異なるズームレベルで表示されるときに調整が維持されるように、表現を調整することができる。異なるズームレベルで表現を表示すること、及びユーザが特定のズームレベルにある間に、全てのズームレベルで表現に適用される表現の特定の特性を変更できるようにすることにより、ユーザは、全てのズームレベルで特定の変更を表現に再適用する必要なく、特定の変更を適用することができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24C-24F), the first representation of the first visual medium is displayed at the first zoom level (eg, 1x zoom; first magnification level). .. In some embodiments (eg, FIGS. 24C to 24F), the electronic device changes the zoom level of the representation of the first visual media while displaying the first representation of the first visual media. The request to be made (eg, 2450e) (eg, pinch or depinch gesture) is detected. In some embodiments (eg, FIGS. 24C to 24F), in response to detecting a request to change the zoom level of the representation of the first visual media, the electronic device is referred to as the first zoom level. Display a ninth representation of the first visual media at a different second zoom level (eg, 2x zoom) (eg, based on the size of the gesture directed to changing the zoom level of the representation). .. In some embodiments (eg, FIGS. 24C to 24F), the electronic device is configured to adjust / edit the image at a second zoom level. In some embodiments, the electronic device displays another representation of the visual media at a different zoom level while the ninth representation is displayed at the first zoom level (eg, FIGS. 24C-24F). The expression can be adjusted so that sometimes the adjustment is maintained. By displaying the representation at different zoom levels and allowing the user to change certain characteristics of the representation applied to the representation at all zoom levels while the user is at a particular zoom level, the user is all Specific changes can be applied without having to reapply specific changes to the representation at the zoom level of. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では(例えば、図24A)、第1の視覚メディアの第1の表現(例えば、2430b)は、カメラレンズの形状及び/又はカメラの位置に基づく遠近歪を含む(例えば、第1の表現は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点に対応して修正されない(例えば、元の視点);第1の表現は、任意の追加された遠近歪を含まない)。いくつかの実施形態では(例えば、図24F)、第2の表現(例えば、2430e)(例えば、第1の視覚メディアの第2の表現は、カメラレンズの形状及び/又はカメラの位置に基づいて遠近歪を低減するように調整される(例えば、第1の視覚メディアの第2の表現は、修正されていないもの(例えば、元の視点)とは異なるシミュレートされた視点を有し、シミュレートされた視点は、メディアがキャプチャされた時点で第1の視覚メディアをキャプチャするために使用されるカメラの視点以外である))。 In some embodiments (eg, FIG. 24A), the first representation of the first visual medium (eg, 2430b) includes perspective distortion based on the shape and / or position of the camera lens (eg, the first). The representation of 1 is not modified corresponding to the viewpoint of the camera used to capture the first visual media at the time the media is captured (eg, the original viewpoint); the first representation is arbitrary. Does not include added perspective distortion). In some embodiments (eg, FIG. 24F), the second representation (eg, 2430e) (eg, the second representation of the first visual medium is based on the shape of the camera lens and / or the position of the camera. Adjusted to reduce perspective distortion (eg, the second representation of the first visual media has a simulated perspective that is different from the unmodified one (eg, the original perspective) and is simulated. The point of view is other than the point of view of the camera used to capture the first visual media at the time the media is captured)).
いくつかの実施形態では(例えば、図24B〜図24J)、調整可能なコントロール(2258a〜2258c)は、遠近歪を補正するコントロールに対応する。いくつかの実施形態では(例えば、図24B〜図24J)、電子デバイスは、調整可能なコントロールに向けられたジェスチャを含むユーザ入力(例えば、2258a〜2258cに向けられたユーザ入力)を検出したことに応答して、調整可能なコントロールに向けられたジェスチャの方向及び/又は大きさに従って、遠近歪の補正の量を更新する(例えば、インジケーションの表示を動かす、又は第2の場所でインジケーションを表示する)(例えば、ジェスチャの移動のより大きい距離及び/又は速さについてのより大きい量で補正の量を変更すること、並びにジェスチャの移動のより小さい距離及び/又は速さについてのより小さい量で補正の量を変更すること、(並びに、任意選択的に、遠近歪についてのそれぞれの調整量に対応するように、遠近歪についての調整の現在の量(例えば、垂直度、水平度、又は水平線調整)のインジケーションを変更すること)などの、ジェスチャの移動の距離及び/又は速さに基づいて選択される補正の量の変化の大きさを有する、ジェスチャが第1の方向にある場合に補正の量を増加すること、ジェスチャが第1の方向とは反対の、又は第1の方向とは実質的に反対の第2の方向にある場合に補正の量を減少すること)。遠近歪を補正する異なる調整可能なコントロールを提供することにより、ユーザが望ましくない方法で意図せずに表現を変更することを回避すること、及び同時に、調整可能なコントロールへの入力が、入力に基づいて表現を変更することをユーザが認識できるようにすることにより、デバイスのより多くのコントロールをユーザができるようにする。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments (eg, FIGS. 24B-24J), the adjustable controls (2258a-2258c) correspond to controls that correct perspective distortion. In some embodiments (eg, FIGS. 24B-24J), the electronic device has detected a user input that includes a gesture directed at an adjustable control (eg, a user input directed at 2258a-2258c). In response to, the amount of perspective distortion correction is updated according to the direction and / or magnitude of the gesture directed at the adjustable control (eg, moving the indication display, or indicating in a second location. (For example, changing the amount of correction with a larger amount for a greater distance and / or speed of movement of a gesture, and a smaller amount for a smaller distance and / or speed of movement of a gesture. Changing the amount of correction by quantity (and optionally the current amount of adjustment for perspective distortion (eg, verticality, horizontality, etc.) to correspond to each adjustment amount for perspective distortion, The gesture has the magnitude of change in the amount of correction selected based on the distance and / or speed of movement of the gesture, such as changing the indication of (or horizon adjustment)) in the first direction. Increasing the amount of correction in some cases, decreasing the amount of correction if the gesture is in the second direction opposite to the first direction or substantially opposite to the first direction). By providing different adjustable controls that compensate for perspective distortion, the user avoids unintentionally changing the representation in an undesired way, and at the same time, the input to the adjustable control becomes the input. Allows the user to have more control over the device by allowing the user to recognize changes to the representation based on it. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
方法2500に関して上述された処理(例えば、図25A〜図25B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2700、2800、3000、3200、3400、3600、及び3800は、方法2500を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 2500 (eg, FIGS. 25A-25B) are also applicable to the methods described above in a similar manner. For example,
図26A〜図26Uは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図27A〜図27C、及び図28A〜図28Bにおける処理を含む、以下で説明される処理を例示するために使用される。 26A-26U show exemplary user interfaces for managing media using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 27A-27C and 28A-28B.
具体的には、図26A〜図26Uは、異なるレベルの光(例えば、可視光及び/又は周辺光)を有するいくつかの環境で動作するデバイス600を示す。低光閾値(例えば、20ルクスなどの閾値)を上回る光量を有する環境は、通常環境と呼ばれる。低光閾値(例えば、20ルクスなどの閾値)を下回る光量を有する環境は、低光環境と呼ばれる。更には、低光環境は、更に3つのカテゴリーに分割される。光の第1の範囲の間(例えば、20〜10ルクス)の光量を有する低光環境は、標準低光環境と呼ばれる。光の第2の範囲の間(例えば、10〜1ルクス)の光量を有する低光環境は、副標準低光環境と呼ばれる。また、光の第3の範囲の間(例えば、1ルクスなどの閾値を下回る)の光量を有する低光環境は、極副標準低光環境と呼ばれる。以下の実施例では、デバイス600は、1つ以上のカメラを介して、環境内(例えば、デバイス600の1つ以上のカメラの視野内(FOV))の光量の変化があるかどうかを検出し、デバイス600が低光環境又は通常環境で動作しているかどうかを判定する。デバイス600が低光環境で動作しているとき、デバイス600(例えば、又はデバイス600に接続されたいくつかの他のシステム又はサービス)は、標準低光環境、副標準低光環境、又は極副標準低光環境で動作しているかどうかを判定する。デバイス600が標準低光環境で動作しているとき、デバイス600は、追加の入力(例えば、メディアをキャプチャする要求に応答して、デバイスがキャプチャ持続時間に従って複数の画像をキャプチャするかどうかのモード)なしで低光モードを自動的にオンにしない。他方では、デバイス600が副標準又は極副標準低光環境で動作しているとき、デバイス600は、追加のユーザ入力なしで、低光モードを自動的にオンにする。デバイス600が、副標準又は極副標準低光環境で動作しているときに追加のユーザ入力なしで、低光モードを自動的にオンにする一方、デバイス600は、各環境で異なる低光モードでメディアをキャプチャするように自動的に構成される。デバイス600が副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間(例えば、1秒又は2秒)に基づいて、メディアを自動的にキャプチャするように構成される。しかしながら、デバイス600が極副標準低光環境で動作しているとき、デバイス600は、固定の低光キャプチャ持続時間よりも長いキャプチャ持続時間に基づいて、メディアをキャプチャするように自動的に(追加のユーザ入力なしで)構成される。理解を向上させるために、図26A〜図26Uのいくつかは、デバイス600がFOV内で検出している光量を示すグラフ的な説明図(例えば、光グラフ2680)を含む。いくつかの実施形態では、図18A〜図18X、図19A〜図19B、図20A〜図20C、及び/又は図21〜図21Cで論じられた1つ以上の技術を、以下で論じられた図26A〜図26U、図27A〜図27C、及び図28A〜図28Bの1つ以上の技術と任意選択的に組み合わせてもよい。
Specifically, FIGS. 26A-26U show a
図26Aは、ディスプレイ600の上部からディスプレイ600の底部まで延在するライブプレビュー630を含むカメラユーザインタフェースを表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサ(例えば、及び/又はカメラ)によって検出された画像に基づき、FOVの表現である。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない、スクリーンの一部分のみである。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630(例えば、ライブプレビュー630の異なる部分)を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。
FIG. 26A shows an
図26Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ領域602とコントロール領域606との間に位置する。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。
The camera user interface of FIG. 26A includes an
図26Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュ状態インジケータ602aを含む。フラッシュ状態インジケータ602aは、フラッシュモード(例えば、メディアをキャプチャする要求に応答して、フラッシュ動作を制御するモード)が自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。
As shown in FIG. 26A, the
図26Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含む。ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、1×ズームアフォーダンス2622bが選択され、これは、デバイス600が1×ズームレベルでライブプレビュー630を表示することを示す。
As shown in FIG. 26A, the
図26Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明オーバーレイ)を含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分(例えば、メディアの表現)624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。
As shown in FIG. 26A, the
図26Aに示すように、デバイス600は、FOV内の光量が25ルクスであることを検出し、これは、光グラフ2680上の現在の光レベル2680aによって表される。FOV内の光量(25ルクス)が低光閾値(例えば、20ルクスなどの閾値)を上回るため、デバイス600は、低光環境で動作している。それにより、デバイス600は、低光モードで動作するのをやめる。デバイス600は、FOV内のデータを連続的にキャプチャし、かつ標準フレームレート(例えば、デバイス600が、低光モードで動作していない間にメディアをキャプチャするために通常使用するフレームレート)に基づいてライブプレビュー630を更新する。図26Aでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650aを検出する。
As shown in FIG. 26A, the
図26Bに示すように、タップジェスチャ2650aを検出したことに応答して、デバイス600は、FOVを表すメディアをキャプチャし、メディアコレクション624の一部分として、新たにキャプチャされたメディアの表現2624aを表示する。デバイス600が新たにキャプチャしたメディアをキャプチャするとき、デバイス600は、単一の画像をキャプチャし、かつメディアコレクション624の部分として、単一の画像の表現を表示する。
As shown in FIG. 26B, in response to detecting the
図26Bに示すように、タップジェスチャ2650aを検出した後のある時点で、デバイス600は、現在の光レベル2680bによって表されるように、FOV内の光量が15ルクスに変化したことを検出する。デバイス600は、標準低光環境(例えば、20〜10ルクス)で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。低光モード状態インジケータ602cは、低光モードが利用可能であるが、現在非アクティブであることを示す。低光モードは、低光モードが最初にオフ(例えば、デフォルトでオフ)であるときに利用可能であるが、低光モード状態インジケータ602cを選択することによってオンにすることができる。図26Bでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650bを検出する。
As shown in FIG. 26B, at some point after detecting the
図26Cに示すように、タップジェスチャ2650bを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードがアクティブであることを示す。低光モード状態インジケータ602cが、低光モードの状態がアクティブであることを示す間、デバイス600は、メディアをキャプチャする要求に応答して、低光モードでメディアをキャプチャするように構成される。タップジェスチャ2650bを検出したことに応答して、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。調整可能な低光モードコントロール1804を使用して、(例えば、特定のキャプチャ持続時間に対応する調整可能な低光モードコントロール1804上の位置でのインジケーション1818を介して)低光モードでメディアをキャプチャするキャプチャ持続時間を設定することができる。具体的には、調整可能な低光モードコントロール1804は、オフ状態2604a(図26Uに示す)、デフォルト状態2604b、及び最大状態2604c(図26Kに示す)を含む、いくつかのキャプチャ持続時間状態を含む。更に、タップジェスチャ2650bを検出したことに応答して、調整可能な低光モードコントロール1804は、デフォルト状態2604b(例えば、「Auto 1s」)に自動的に設定され、これは、固定キャプチャ持続時間(例えば、1秒でのキャプチャ持続時間)に対応する。
As shown in FIG. 26C, in response to detecting the
図26Cにおいて、オフ状態2604a及び最大状態2604cは、インジケーション1818の現在の位置が与えられると示されていない。オフ状態2604aは、図26Uに示すように、調整可能な低光モードコントロール1804上の最左端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、低光モードをオフにさせ、かつメディアをキャプチャする要求を受信したことに応答して(例えば、図26Uにおいて後述するように)、標準フレームレートに基づいて、メディアをキャプチャさせる。最大状態2604c(図26Kに示す)は、調整可能な低光モードコントロール1804上の最右端のティックマークである。調整可能な低光モードコントロール1804を、インジケーション1818を介して、調整可能な低光モードコントロール1804上の最左端のティックマークに設定することにより、デバイス600に、(例えば、図26J〜図26Qに関連して後述するように)最大キャプチャ持続時間に基づいて、メディアをキャプチャさせる。
In FIG. 26C, the
図26Cに示すように、タップジェスチャ2650bを検出したことに応答して、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間及び最大状態2604cに対応するキャプチャ持続時間を判定する。これらのキャプチャ持続時間は、メディアのキャプチャに関連付けられた特定の環境条件に基づいて計算される。環境条件は、デバイス600の安定化、FOV内で検出された光、及びFOVとともに1つ以上のオブジェクトの移動などの条件が含まれる。デバイス600は、これらの環境条件のうちの1つ以上の分析に基づいて、より高い/より低いキャプチャ(例えば、各々独立した状態)を判定する。例えば、より高いレベルの安定性、FOV内のより低いレベルの光、及びFOV内のオブジェクトのより低いレベルの動きにより、デバイス600に、1つ以上の状態(例えば、デフォルト状態2604b及び/又は最大状態2604c)に対応するより長いキャプチャ持続時間を計算させる。いくつかの実施形態では、環境条件のうちの1つ以上の変化により、デバイス600に、別のキャプチャ持続時間状態を維持しながら1つのキャプチャ持続時間状態を変化させる。換言すれば、いくつかの実施形態では、異なる環境条件は、各状態のキャプチャ持続時間に異なるように影響する。
As shown in FIG. 26C, in response to detecting the
図26Cに示すように、デバイス600が高度に安定化されているため、オブジェクト(例えば、まだライブプレビュー630内に立っている人)は、実質的に動いておらず、デバイス600は、標準低光環境で動作しており、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が固定の低光キャプチャ持続時間値(1秒)であると判定する。図26Cでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650cを検出する。
As shown in FIG. 26C, because the
図26Dに示すように、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cを更新して、低光モードが非アクティブであることを示す。低光モード状態インジケータが、低光モードの状態が非アクティブであることを示す間、デバイス600は、低光モードでメディアをキャプチャするように構成されない。更に、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モードが現在非アクティブに設定されているため、調整可能な低光モードコントロール1804の表示を停止する。いくつかの実施形態では、タップジェスチャ2650cを検出したことに応答して、デバイス600は、低光モードが利用可能であることを示すように、低光モード状態インジケータ602cを更新する(例えば、低光モードは、非アクティブであるが、インジケータ602cは、低光モードが非アクティブに設定されていることを示すインジケータを視覚的に区別可能である)。図26Dでは、タップジェスチャ2650cを検出した後に、デバイス600は、FOV内の光の変化を検出する。
As shown in FIG. 26D, in response to detecting the
図26Eに示すように、FOV内の光の変化を検出したことに応答して、デバイス600は、現在の光レベル2680cによって表されるように、FOV内の光量が5ルクスであることを検出する。FOV内の光量が5ルクスであることを検出した後に、デバイス600は、デバイス600が副標準低光環境(例えば、10〜1ルクス)で動作していると判定する。デバイス600は、副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。更に、デバイス600が副標準低光環境で動作していると判定するため、デバイス600は、低光モードがアクティブであることを示す状態を有する低光モード状態インジケータ602cを表示し、かつ低光モードをオンにする。ここで、デバイス600は、自動的に(追加のユーザ入力なしで)、デバイス600が標準低光環境内で動作したと検出したとき(例えば、図26Bで論じられたように)とは対照的に、副標準低光環境内で動作していることを検出した後に、低光モードをオンにする。特に、FOV内の光が標準低光環境内の光よりも低いため、より暗い環境(例えば、標準低光環境と比較して副標準低光環境で動作しているときに、デバイス600が低光モードを自動的にオンにする場合、メディアをキャプチャする要求を検出したことに応答して、ユーザが低光モードでより頻繁にメディアをキャプチャすることができるため、ユーザにとってより有用であり得る。それにより、デバイス600は、低光モードを手動でオンにする(例えば、低光モード状態インジケータ602cに向けられたタップジェスチャ)又は調整可能な低光モードコントロール1804を表示する必要なく、メディアをキャプチャする要求(例えば、シャッターアフォーダンス610に向けられたタップジェスチャ)を検出したことに応答して、低光モードでメディアをキャプチャするように自動的に設定される。いくつかの実施形態では、デバイス600が低光モードをオンにするとき、デバイス600は、第1のタイプのカメラ(例えば、狭い視野を有するカメラ(例えば、望遠写真カメラ))と、第1のタイプのカメラとは異なる第2のタイプのカメラ(例えば、広い視野を有するカメラ(例えば、広角又は超広角カメラ)と、を使用するのを自動的に(追加のユーザ入力なしで)切り替える(又はいくつかの実施形態では、デバイス600は、第2のタイプのカメラと、第1のタイプのカメラと、を使用するのを自動的に(追加のユーザ入力なしで)切り替える)。図26Eでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650eを検出する。
As shown in FIG. 26E, in response to detecting a change in light in the FOV, the
図26Fに示すように、タップジェスチャ2650eを検出したことに応答して、デバイス600は、コントロール領域606内に調整可能な低光モードコントロール1804を表示する(及び低光モード状態インジケータ602cの状態及び表示を維持する)。調整可能な低光モードコントロール1804は、インジケーション1818を介して、1秒のキャプチャ持続時間に設定され、これはまた、判定されたデバイス600がデフォルト状態2604bに対応するべきキャプチャ持続時間でもある。いくつかの実施形態では、デバイス600は、代わりに、デバイス600が標準低光環境で動作したとき(例えば、図26Cで論じられたように)、デフォルト状態2604bが、最小キャプチャ持続時間(例えば、2秒)、又はデフォルト状態2604bのキャプチャ持続時間とは異なるキャプチャ持続時間を上回るキャプチャ持続時間に対応すべきであると判定する。図26Fでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650fを検出する。
As shown in FIG. 26F, in response to detecting the
図26Gに示すように、タップジェスチャ2650fを検出したことに応答して、デバイス600は、1秒のキャプチャ持続時間(例えば、デフォルト状態2604b)に基づいてメディアをキャプチャする。デバイス600が低光モードでメディアをキャプチャするように構成されている間に、1秒のキャプチャ持続時間(又は任意の他のキャプチャ持続時間)に基づいてメディアをキャプチャするときに、デバイス600は、キャプチャ持続時間に対応する期間にわたって複数の画像をキャプチャする。画像をキャプチャした後に、デバイス600は、キャプチャされた画像を組み合わせることによって(例えば、キャプチャされた画像からのデータを組み合わせることによって)(例えば、図18A〜図18Xに関連して上述したようなものと同様の技術を使用して)、合成画像を生成する。図26Gでは、合成画像を生成した後で、デバイス600は、新たにキャプチャされたメディアの表現2624bを表示するように、メディアコレクション624の部分を更新する。表現2624bが図26Bに表示された表現2624aよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624bは、5ルクスでメディアの表現よりも視覚的に明るい。
As shown in FIG. 26G, in response to detecting the
図26Bに戻ると、いくつかの実施形態では、デバイス600が図26Bでシャッターアフォーダンス610に対応する場所でのタップジェスチャを検出する場合、デバイス600は、低光モードがアクティブに設定されていなくても、複数の画像から合成画像を生成する。いくつかの実施形態では、デバイス600は、図26Bのタップジェスチャを検出したことに応答して、図26Bの表現2624bによって表された合成画像生成するために使用される画像の数よりも、少ない数の画像をキャプチャして、合成画像を生成する。換言すれば、いくつかの実施形態では、低光環境(例えば、20ルクス未満)で、デバイス600は、自動的に調整を行い、かつ複数の画像を(いくつかの実施形態では、低光モードが選択されているときよりも少ない画像を)一緒に融合して、低光状態インジケータ602cが能動的に選択されているときにデバイス600が行うように改善された合成画像を得る。図26Gでは、タップジェスチャ2650fを検出した後に、デバイス600は、FOV内の光の変化を検出する。
Returning to FIG. 26B, in some embodiments, if the
図26Hに示すように、FOV内の光の変化を検出したことに応答して、デバイス600は、現在の光レベル2680dによって表されるように、FOV内の光量が0.5ルクスであることを検出し、それが極副標準低光環境(例えば、1ルクス未満)で動作していると判定する。デバイス600は極副標準低光環境で動作しているため、デバイス600は、フラッシュ状態インジケータ602aに隣接して低光モード状態インジケータ602cを表示する。ここで、低光モード状態インジケータは、低光モードの状態がアクティブであることを示す(デバイス600が副標準低光環境で動作していたときに上述された同様の理由による)。更には、低光モード状態インジケータ602cは、デバイス600が極副標準低光環境で動作している(及び/又はデバイス600は、閾値(例えば、1秒又は2秒を上回るなどの閾値)よりも長い持続時間で、低光環境内のメディアをキャプチャするように構成される)ため、現在のキャプチャ持続時間(例えば、低光モード状態インジケータ602cに表示される「5秒」)を更に含む。ここで、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間が、FOV内の光が閾値を下回る(例えば、光レベルが標準及び副標準低光環境よりも低い)ため、最小キャプチャ持続時間よりも高いべきであることを判定する。いくつかの実施形態では、低光インジケータは、(例えば、調整可能な低光モードコントロール1804に設定される)最小キャプチャ持続時間又はいくらかの他の閾値よりも長いキャプチャ持続時間で低光モードがメディアをキャプチャするように構成されるまで、キャプチャ持続時間を含まない。図26Hでは、デバイス600は、低光モード状態インジケータ602cに対応する場所でのタップジェスチャ2650hを検出する。
As shown in FIG. 26H, in response to detecting a change in light in the FOV, the
図26Iに示すように、タップジェスチャ2650hを検出したことに応答して、デバイス600は、コントロール領域606に調整可能な低光モードコントロール1804を表示する。ここで、調整可能な低光モードコントロール1804は、5秒のキャプチャ持続時間に設定され、これはまた、デフォルト状態2604bに対応する。上述のように、デバイス600は、キャプチャ持続時間が最小キャプチャ持続時間(例えば、1秒)の代わりに5秒であるべきであると判定する。デバイス600は、FOV内の光が、最小キャプチャ持続時間がメディアの特定の品質に十分に有効ではない(例えば、1つ以上のオブジェクトがキャプチャされたメディア内で区別可能である)光レベルに変化したため、この判定を行う。ここで、キャプチャ持続時間は変化するが、他の環境条件(例えば、デバイス600の安定化及びFOV内のオブジェクトの移動)は、同じままである。図26Iでは、デバイス600は、調整可能な低光モードコントロール1804に対応する場所での左向きスワイプジェスチャ2650iを検出する。
As shown in FIG. 26I, in response to detecting the
図26Jに示すように、左向きスワイプジェスチャ2650iを検出したことに応答して、デバイス600は、左向きスワイプジェスチャ2650iの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを左にシフトする。調整可能な低光モードコントロール1804のティックマークを左にシフトした後、デバイス600は、10秒のキャプチャ持続時間に対応する場所に、インジケーション1818を表示する。ここで、10秒のキャプチャ持続時間は、最大状態2604c(又は調整可能な低光モードコントロール1804上の最右端のティックマーク)についてのキャプチャ持続時間に対応する。そうすると、デバイス600は、デフォルト状態2604bに対応するキャプチャ持続時間の表示を停止する。図26Jに示すように、左向きスワイプジェスチャ2650iに応答して、デバイス600は、閾値(例えば、1秒又は2秒などの閾値)よりも高いキャプチャ持続時間(例えば、10秒)に基づいて、デバイス600が低光モードでメディアをキャプチャするように構成されるため、現在のキャプチャ持続時間が10秒であることを示すように、低光キャプチャインジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804は、オフ状態2604a、デフォルト状態2604b、及び最大状態2604cに対応するキャプチャ持続時間のみを設定し得る。いくつかの実施形態では、調整可能な低光モードコントロール1804は、キャプチャ持続時間状態(例えば、オフ状態2604a、デフォルト状態2604b、及び最大状態2604c)のうちの1つ以上に対応しない他のキャプチャ持続時間を設定し得る。
As shown in FIG. 26J, in response to detecting the
図26J〜図26Qは、キャプチャ持続時間に基づいて、低光モードでメディアをキャプチャするデバイス600を示す。具体的には、図26J〜図26Qは、デバイス600が、キャプチャ持続時間に基づいて、低光モードでディアをキャプチャする間に使用する、1つ以上のアニメーション及び/又は技術を示す。キャプチャ持続時間(例えば、10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベルが1ルクスを下回る場合、デバイス600は、以下のアニメーションを表示し、及び低光モードでメディアをキャプチャする以下の技術を使用する。キャプチャ持続時間(例えば、1秒)が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも高く設定されておらず、及び/又は検出された光のレベルが1ルクスを下回らない場合、デバイス600は、以下のアニメーションを表示すること、及び低光モードでメディアをキャプチャする以下の技術を使用することをやめる。例えば、図26F〜図26Gに戻ると、1秒のキャプチャ持続時間が閾値キャプチャ持続時間(例えば、1秒又は2秒などの閾値)よりも長く設定されなかったため、デバイス600がメディアをキャプチャしたときに、以下のアニメーション又は技術のいずれも記載されなかった。いくつかの代替的実施形態では、キャプチャ持続時間が閾値を下回り、及び/又は検出された光のレベルが1ルクスを下回らない場合、アニメーション及び/又は技術のいくつかを使用する。更に、いくつかの実施形態では、図18J〜図18Tに記載された1つ以上のアニメーション又は技術は、図26J〜図26Qに関連して後述されたアニメーション及び技術に含まれ、簡潔にするために、これらのアニメーション及び技術のうちのいくつかは、以下の考察から省略されている。図26Jでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2650jを検出する。
26J-26Q show the
図26Kに示すように、タップジェスチャ2650jを検出したことに応答して、デバイス600は、10秒のキャプチャ持続時間(例えば、左向きスワイプジェスチャ2650iに応答して、設定された最大状態2604cに対応するキャプチャ持続時間)に基づいて、低光モードでのメディアのキャプチャを開始した。メディアのキャプチャを開始すると、デバイス600は、シャッターアフォーダンス610の表示を、停止アフォーダンス1806に置き換え、ゼロのキャプチャ持続時間に向かうインジケーション1818の移動を開始する(例えば、10秒から0秒へのカウントダウン)。更に、デバイス600は、インジケータ領域602内のフラッシュ状態インジケータ602a及び低光モード状態インジケータ602c、カメラディスプレイ領域604内のズームアフォーダンス2622、並びにコントロール領域606内のメディアコレクション624などの、デバイス600が低光モードでメディアをキャプチャしている間に対話することができる、ユーザインタフェース要素のうちのいくつかの表示を停止する。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応答して、デバイス600は、インジケーションを、10秒のキャプチャ持続時間から0秒のキャプチャ持続時間まで(例えば、巻き出しアニメーション18M〜18Qと同様)動かす前に、インジケーション1818を、0秒のキャプチャ持続時間から10秒のキャプチャ持続時間まで(例えば、巻き取りアニメーション18K〜18Mと同様)動かすアニメーションを示す。いくつかの実施形態では、タップジェスチャ2650jを検出したことに応答して、デバイス600は、シャッターアフォーダンス610を暗くし;いくつかの実施形態では、デバイス600は、シャッターアフォーダンス610を暗くした後、停止アフォーダンス1806を表示しない。
As shown in FIG. 26K, in response to detecting the
図26Kに示すように、タップジェスチャ2650jを検出したことに応答して、デバイス600は、メディアのキャプチャが開始されたときのデバイス600のポーズ(例えば、位置及び/又は向き)と、メディアをキャプチャしている間の時点のポーズとの間の差を示す、視覚ガイダンス2670を表示する。キャプチャ持続時間(10秒)が閾値キャプチャ持続時間(例えば、1秒などの閾値又は2秒などの閾値)よりも高く設定されており、及び/又は検出された光のレベル(0.5ルクス)が1ルクスを下回るため、視覚ガイダンスが表示される。視覚ガイダンス2670は、命令2670a(例えば、「一時停止」)を含み、これは、デバイス600が、低光モードでメディアをキャプチャする間、安定している(例えば、静止する)必要があることを示す。更には、視覚ガイダンス2670はまた、元のポーズインジケーション2670bを含み、これは、メディアのキャプチャを開始したときのデバイス600のポーズを示す。画像をキャプチャしている間にデバイス600が安定化されていない、又は画像が元のポーズから外れてキャプチャされる場合、デバイス600は、デバイス600がその元のポーズで安定化されるか又はそのままであるときよりも品質が劣ったメディアを生成する。理解を向上させるために、図26K〜図26Qのいくつかは、デバイス600の元のポーズ2668bの位置に対して現在のポーズ2668cの位置がどのように変化するかについての詳細を提供するグラフ的な説明図2668を含む。
As shown in FIG. 26K, in response to detecting the
図26Lに示すように、デバイス600は、10秒のキャプチャ持続時間から8秒のキャプチャ持続時間にインジケーション1818を動かした。8秒のキャプチャ持続時間では、デバイス600は、多数の画像をキャプチャした。8秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668c(例えば、固体電話として示される)は、その元のポーズ2668b(例えば、点線で示される)から上及び右にシフトされる。デバイス600のポーズの変化を検出したことに応答して、デバイス600は、元のポーズインジケーション2670bの表示を維持し、かつ現在のポーズインジケーション2670cを表示する。現在のポーズインジケーション2670cは、現在のポーズ2668cに対応するカメラユーザインタフェース上の位置に表示される(例えば、元のポーズインジケーション2670bから上及び右にシフトされる)。図26Lに示すように、デバイス600は、2つの別個のライン(例えば、ボックス)のセットとして、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cを表示する。いくつかの実施形態では、元のポーズインジケーション2670b及び現在のポーズインジケーション2670cは、異なる色、太さ、勾配、ボケ、又は他のタイプの視覚効果などの1つ以上の異なる視覚特性を有することによって視覚的に区別される。
As shown in FIG. 26L, the
図26Mに示すように、デバイス600は、8秒のキャプチャ持続時間から7秒のキャプチャ持続時間にインジケーション1818を動かした。7秒のキャプチャ持続時間では、デバイス600は、8秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。7秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bから左下にシフトされている。ここで、現在のポーズ2668cへの過補正が適用されている(例えば、デバイス600は、図26Nの現在のポーズ2668cから左下に過補正された)。図26Mに示すように、(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、ライブプレビュー630上で、図26Mにおける現在のポーズ2668cに対応する位置まで、現在のポーズインジケーション2670cを動かす。(7秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、図26Lに表示された位置に、元のポーズインジケーション2670bの表示を維持し、これにより、デバイス600は、現在のポーズインジケーション2670cが、元のポーズインジケーション2670bから下及び左にシフトされたことを表示する。いくつかの実施形態では、現在のポーズインジケーション2670cを新しい位置に動かす代わりに、デバイス600は、元のポーズインジケーション2670bを新しい位置に動かし、現在のポーズインジケーション2670cの表示を、図26Lにおいて以前に表示された位置に維持する。
As shown in FIG. 26M,
図26Nに示すように、デバイス600は、7秒のキャプチャ持続時間から5秒のキャプチャ持続時間にインジケーション1818を動かした。5秒のキャプチャ持続時間では、デバイス600は、7秒のキャプチャ持続時間でキャプチャしたデバイス600よりも多くの画像をキャプチャした。5秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出する。グラフ的な説明図2668に示すように、デバイス600の現在のポーズ2668cは、元のポーズ2668bの位置になるように近くにシフトされ、図26Mにおける現在のポーズ2668cの位置から右上にシフトされる。(5秒のキャプチャ持続時間で)デバイス600のポーズの変化を検出したことに応答して、デバイス600は、ライブプレビュー630上で、現在のポーズインジケーション2670cを、図26Nの現在のポーズ2668cに対応する位置に動かし、これにより、デバイス600は、図26Mに表示された現在のポーズインジケーション2670cよりも、元のポーズインジケーション2670bの近くにシフトされた現在のポーズインジケーション2670cを表示する。更には、デバイス600は、その元の位置に元のポーズインジケーション2670bの表示を維持する。
As shown in FIG. 26N,
図26Oに示すように、デバイス600は、5秒のキャプチャ持続時間から4秒のキャプチャ持続時間にインジケーション1818を動かした。4秒のキャプチャ持続時間では、デバイス600は、5秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。4秒のキャプチャ持続時間でインジケーション1818を表示している間のある時点で、デバイス600は、そのポーズの変化を検出し、現在のポーズ2668cの位置は、元のポーズ2668bの位置と一致する。図26Nに示すように、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応答して、デバイス600は、触知出力2620aを発する。更には、現在のポーズ2668cが元のポーズ2668bの位置と一致することを検出したことに応答して、デバイス600は、現在のポーズインジケーション2670cの表示を停止し、命令2670a及び元のポーズインジケーション2670bの表示を維持する。いくつかの実施形態では、元のポーズインジケーション2670bは、現在のポーズが元のポーズと一致する場合、現在のポーズが元のポーズと一致しない場合とは異なる色を表示する。
As shown in FIG. 26O, the
図26Pに示すように、デバイス600は、4秒のキャプチャ持続時間から3秒のキャプチャ持続時間にインジケーション1818を動かした。3秒のキャプチャ持続時間では、デバイス600は、4秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。3秒のキャプチャ持続時間では、デバイス600は、そのポーズの変化を検出せず、命令2670aの表示を維持する。それにより、デバイス600は、視覚ガイダンス2670の表示を更新するのをやめる。
As shown in FIG. 26P, the
図26Qに示すように、デバイス600は、2秒のキャプチャ持続時間から0秒のキャプチャ持続時間にインジケーション1818を動かした。0秒のキャプチャ持続時間では、デバイス600は、3秒のキャプチャ持続時間でキャプチャしたデバイスよりも多くの画像をキャプチャした。0秒のキャプチャ持続時間では、デバイス600は、メディアキャプチャの終了を検出する。
As shown in FIG. 26Q, the
図26Rに示すように、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、最大状態2604cに対応する10秒のキャプチャ持続時間で、調整可能な低光モードコントロール1804上にインジケーション1818を表示し、停止アフォーダンス1806の表示を、シャッターアフォーダンス610に置き換える。更には、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、デバイス600が低光モードでメディアをキャプチャしていた間に対話することができた、ユーザインタフェース要素のうちのいくつかを再表示する。図26Rに示すように、メディアのキャプチャの終了を検出したことに応答して、デバイス600は、タップジェスチャ2650jを検出したことに応答して、キャプチャされた複数の画像に基づいて合成画像のメディアを生成する。デバイス600は、メディアコレクション624の一部分として、表現2624cを表示する。表現2624cが図26G(及び表現2624a)に表示された表現2624bよりも視覚的に暗い間に、デバイスが(例えば、標準フレームレートを使用して)低光モードでメディアをキャプチャするように構成されていない場合、表現2624cは、0.5ルクスでメディアの表現よりも視覚的に明るい。図26Rでは、より長いキャプチャ持続時間に起因して、デバイス600は、デバイス600が図26Gの表現2624bによって表された合成画像を生成するためにキャプチャした画像の数より多くの画像をキャプチャして、表現2624cによって表された合成画像を生成した。いくつかの実施形態では、より少ない周辺光を有する環境においてメディアをキャプチャするとき、デバイス600は、より高レベルの周辺光を有する環境においてデバイス600が生成する画像と同じ画像を生成するために、より多くの画像をキャプチャし、融合させる必要がある。図26Rでは、デバイス600は、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出する。
As shown in FIG. 26R, in response to detecting the end of media capture, the
図26Sに示すように、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600は、10秒のキャプチャ持続時間から5秒のキャプチャ持続時間に最大状態2604cを更新する。上述のように、デバイス600がより不安定であるとき、デバイス600は、最大状態2604c(例えば、又はデフォルト状態2604b)に対応するキャプチャ持続時間をより短くし得る。更には、電子デバイスがより不安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600はまた、5秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。いくつかの実施形態では、デバイス600が、キャプチャ持続時間が閾値(例えば、1秒又は2秒などの閾値)未満であると判定すると、デバイス600は、低光モード状態インジケータ602c内のキャプチャ持続時間の表示を停止する。
As shown in FIG. 26S, in response to detecting a change in the movement of the
特に、いくつかの実施形態では、デバイス600は、以前に設定されたキャプチャ持続時間に基づいてメディアをキャプチャする間に、1つ以上の環境条件の変化を検出することができる。いくつかの実施形態では、この変化に基づいて、デバイス600は、最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ持続時間値を更新することができる。デバイス600が最大状態2604c(又はデフォルト状態2604b)に対応するキャプチャ値を更新すると、デバイス600は、メディアのキャプチャの終了を検出したことに応答して、新しいキャプチャ持続時間でインジケーション1818を表示することができる(例えば、デバイス600は、図26Qでカメラユーザインタフェースを表示し、続いて、26Sでカメラユーザインタフェースを表示することができる)。図26Sでは、デバイス600は、電子デバイスがより安定であるように、デバイス600の移動の変化を検出する。
In particular, in some embodiments, the
図26Tに示すように、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600は、5秒のキャプチャ持続時間から10秒のキャプチャ持続時間に戻るように最大状態2604cを更新する。更には、電子デバイスがより安定であるように、デバイス600の移動の変化を検出したことに応答して、デバイス600はまた、10秒のキャプチャ持続時間を示すように、低光モード状態インジケータ602cを更新する(例えば、調整可能な低光モードコントロール1804が、インジケーション1818を介して、最大状態2604cに現在設定されているため)。図26Tでは、デバイス600は、調整可能な低光モードコントロール1804に対応する場所での右向きスワイプジェスチャ2650tを検出する。
As shown in FIG. 26T, in response to detecting a change in the movement of the
図26Uに示すように、右向きスワイプジェスチャ2650tを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ2650tの大きさ及び方向に基づいて、調整可能な低光モードコントロール1804のティックマークを右にシフトする。調整可能な低光モードコントロール1804のティックマークを右にシフトした後、デバイス600は、調整可能な低光モードコントロール1804上のオフ状態2604aのキャプチャ持続時間に対応する場所に、インジケーション1818を表示する。調整可能な低光モードコントロール1804がオフ状態2604aに設定されていることを検出したことに応答して、デバイス600は、低光モードでの動作を停止する。換言すれば、低光モードは、オフにされるか、又は非アクティブに設定される。低光モードでの動作を停止することに加えて、デバイス600は、低光キャプチャモードの状態が非アクティブであることを示すように、低光モード状態インジケータ602cを更新する。いくつかの実施形態では、調整可能な低光モードコントロール1804がオフ状態に設定されていることを検出したことに応答して、デバイス600は、低光モード状態インジケータ602cであることをやめる。いくつかの実施形態では、図26Uでは、メディアをキャプチャする要求を受信したことに応答して、デバイス600は、メディアの画像を1つだけキャプチャする標準フレームレートに基づいて、メディアをキャプチャする。
As shown in FIG. 26U, in response to detecting the rightward swipe gesture 2650t, the
図27A〜図27Cは、いくつかの実施形態による電子デバイスを使用してメディアを管理するための方法を示すフロー図である。方法2700は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
27A-27C are flow diagrams illustrating methods for managing media using electronic devices according to some embodiments.
後述するように、方法2700は、メディアを管理するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを管理することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を表示すること(2704)を含むメディアキャプチャユーザインタフェースを表示する(2702)。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). An electronic device is an image of one or more cameras (eg, an open observable area visible to the camera, a horizontal (or vertical or diagonal) length of an image at a given distance from a camera lens) through a display device. Display the media capture user interface, including displaying the representation of the field of view (eg, representation overtime, live preview feed of data from the camera) (2704).
低光カメラモードがアクティブである間に(例えば、602cによって示すように)、電子デバイスは、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)(例えば、スライダ又はタイマー)を表示する(2706)。いくつかの実施形態では、低光カメラモード(例えば、低光キャプチャモード)は、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺(例えば、2680a〜d)光がそれぞれの閾値を下回るとき、デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むと満たされる。 While the low light camera mode is active (eg, as indicated by 602c), the electronic device displays a control (eg, 1804) (eg, slider or timer) that adjusts the capture duration to capture the media. (2706). In some embodiments, the low light camera mode (eg, low light capture mode) is active when low light conditions are met. In some embodiments, the low light condition means that the device is operating in low light mode when peripheral (eg, 2680a-d) light within the field of view of one or more cameras falls below their respective thresholds. When the user selects (for example, turns on) the low light condition indicator to indicate, when the user turns on or activates the setting to activate the low light camera mode, the low light condition satisfies the condition. Satisfied when included.
コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)という判定に従って(2708)、電子デバイスは、コントロール(例えば、1804)が第1のキャプチャ持続時間(例えば、図26Fの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Fの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2712)。所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応答して、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying controls, a set of criteria that are met based on a set of first capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera motion, and / or scene motion). ) Is satisfied (eg, 2680c) (2708), the electronic device has a control (eg, 1804) that has a first capture duration (eg, 2604b in FIG. 26F) (eg, time (eg, 1804)). Indications (eg, 1818 in Figure 26F) that are set to (total capture time, exposure time), measured by number of pictures / frames) (eg, slider bar on a particular tick mark on the slider, on the display device. The displayed text) is displayed (2712). By displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met, the user does not have to manually configure the capture duration. In response to a request, the device can quickly recognize the capture duration using the capture media. Also, the user operates with certain conditions in mind by displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met. Reduces the need to calculate a specific capture duration. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680c)という判定に従って(2708)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f)に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2714)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上でのタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件のときにメディアをキャプチャする要求に応答して、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
Satisfied based on a set of first capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera movement, and / or scene movement) as part of displaying the control (eg 1804). According to the determination (eg, 2780c) that a set of criteria) is met (eg, 2708), the electronic device has a single requirement (eg,
コントロールを表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)という判定に従って(2710)、電子デバイスは、コントロール(例えば、1804)が、第1のキャプチャ持続時間よりも大きい第2のキャプチャ持続時間(例えば、図26Iの2604b)(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に設定されているというインジケーション(例えば、図26Iの1818)(例えば、スライダの特定のティックマーク上のスライダバー、表示デバイス上に表示されたテキスト)を表示する(2716)。別の1組の所定の試行とは異なる所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することによって、ユーザは、キャプチャ持続時間を手動で構成する必要なく、要求に応答して、デバイスがキャプチャメディアを使用するキャプチャ持続時間を迅速に認識することができる。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているというインジケーションを表示することにより、ユーザは、所定の条件を考慮して動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As part of displaying the controls, a set of second capture duration criteria (eg, camera stabilization, environmental conditions, light levels, camera movement, etc.) that differs from the set of first capture duration criteria. And / or according to the determination (2710) that a set of criteria that are met based on scene movement is met (eg, 2680d), the electronic device controls (eg, 1804) the first capture duration. An indication (eg, measured by time (eg, total capture time, exposure time), number of pictures / frames) that is set to a second capture duration greater than (eg, 2604b in FIG. 26I). , 1818 of FIG. 26I) (eg, the slider bar on a particular tick mark on the slider, the text displayed on the display device) (2716). By displaying an indication that the adjustable control is set to a particular capture duration only when certain conditions that differ from another set of given trials are met, the user can: The device can quickly recognize the capture duration using the capture media in response to a request without having to manually configure the capture duration. Also, the user operates with certain conditions in mind by displaying an indication that the adjustable control is set to a specific capture duration only when certain conditions are met. Reduces the need to calculate a specific capture duration. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
コントロール(例えば、1804)を表示することの一部として、1組の第1のキャプチャ持続時間基準とは異なる、1組の第2のキャプチャ持続時間基準(例えば、カメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きに基づいて満たされる1組の基準)が満たされている(例えば、2680d)という判定に従って(2710)、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650j)に応答して、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイス(例えば、600)を構成する(2718)(第1のキャプチャ持続時間の外側である第2のキャプチャ持続時間の一部分の間に少なくとも1つの画像をキャプチャすることを含む)(例えば、設定を調整して、電子デバイスの1つ以上のカメラが、(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスに、キャプチャ持続時間の少なくとも一部分について第1の速度で複数の画像をキャプチャさせる)。いくつかの実施形態では、第2の複数の画像は、第1の複数の画像とは異なる。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が満たされるときにメディアをキャプチャする要求に応答して、ユーザが多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
As part of displaying a control (eg, 1804), a set of second capture duration criteria (eg, camera stabilization, environmental conditions, light) that differs from a set of first capture duration criteria. According to the determination (for example, 2680d) that a set of criteria that are met based on level, camera movement, and / or scene movement) is met (2710), the electronic device corresponds to the field of view of one or more cameras. In response to a single request to capture an image (eg,
いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信する。いくつかの実施形態では、デバイスがシャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ)を受信すると、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求は、受信される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、電子デバイスは、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする(例えば、図26F〜図26G)。いくつかの実施形態では、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャする(例えば、図26J〜図26R)。いくつかの実施形態では、第1の複数の画像(又は第2の複数の画像)は、複数の画像のコンテンツの分析に基づいて組み合わされる。
In some embodiments, the electronic device receives a single request (eg,
いくつかの実施形態では、第1の複数の画像(例えば、図26F〜図26G)における画像の量は、第2の複数の画像における画像の量とは異なる(例えば、より多い、又はより少ない)(例えば、図26J〜図26R)。いくつかの実施形態では、複数の画像内の画像の量は、キャプチャ持続時間に基づくものであり、より長いキャプチャ持続時間は、より多くの画像を生成する。 In some embodiments, the amount of images in the first plurality of images (eg, FIGS. 26F-26G) is different (eg, more or less) than the amount of images in the second plurality of images. (For example, FIGS. 26J to 26R). In some embodiments, the amount of images in a plurality of images is based on the capture duration, with longer capture durations producing more images.
いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、及び第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第1の複数の画像のうちの少なくともいくらかのコンテンツを含む第1の合成画像(例えば、図26Gの624)を生成する。いくつかの実施形態では、第1の合成画像(例えば、メディアコレクション624内の画像の表現)は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)を受信したことに応答して、及び第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、第2の複数の画像のうちの少なくともいくらかのコンテンツを含む第2の合成画像(例えば、図26Rの624)を生成する。いくつかの実施形態では、第2の合成画像は、第1の合成画像が生成された後に、表示デバイスを介して、表示される。いくつかの実施形態では、第1の複数の画像は、第1の合成画像に作製される(例えば、組み合わされる)か、又は第2の複数の画像は、第2の合成画像に作製される(例えば、組み合わされる)。いくつかの実施形態では、複数の画像のそれぞれは、画像のコンテンツ(例えば、データ)の分析に基づいて、独立してキャプチャされ、かつ組み合わされる。
In some embodiments, in response to receiving a single request (eg,
いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示している間に、電子デバイスは、(例えば、加速度計及び/又はジャイロスコープにより)電子デバイスの第1の安定度(例えば、図26Rで論じられた)(例えば、電子デバイスの現在の移動量(又は移動の欠如))を検出する。いくつかの実施形態では、電子デバイスは、電子デバイスの第1の安定度(例えば、図26Rで論じられた)を検出したことに応答して、及び電子デバイスの第1の安定度が、第1の安定性閾値を上回る(例えば、電子デバイスがより安定であることを検出する)という判定に従って、コントロール(例えば、1804)が第1のキャプチャ持続時間よりも長い(例えば、第1のキャプチャ持続時間を増加する)、第3のキャプチャ持続時間(例えば、図26Rの2604c)に設定されているインジケーション(例えば、1818)を表示し;かつ1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求(例えば、ジェスチャ2650f又は2650j)に応答して、第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように電子デバイスを構成する。いくつかの実施形態では、コントロールが第1のキャプチャ持続時間に設定されているというインジケーションは、表示を停止される。特定の所定の条件が満たされている(例えば、電子デバイスが安定である)ときに調整可能なコントロールが設定されることのインジケーションの表示を更新することにより、ユーザは、電子デバイスのキャプチャ持続時間が変化したことを迅速に認識することができ、電子デバイスは、変化したキャプチャ持続時間でメディアをキャプチャするように構成される。いくつかの実施形態では、電子デバイスは、画像をキャプチャする単一の要求に応答して、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャする代わりに、第3の複数の画像をキャプチャするように構成される。いくつかの実施形態では、電子デバイスの安定度が閾値を下回るという判定に従って(例えば、電子デバイスがより不安定であることを検出する)、第1のキャプチャ持続時間(又は第2の)は、減少する(例えば、インジケーションは、減少したキャプチャ持続時間を表示し、電子デバイスは、減少したキャプチャ持続時間にわたって画像をキャプチャするように構成される)。いくつかの実施形態では、電子デバイスの安定度が、安定性閾値よりも小さくかつ第2の安定性閾値よりも大きいという判定に従って(例えば、デバイスの安定感は十分に変化していない)、コントロールが第1のキャプチャ持続時間に設定されているという指示を維持し、第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするデバイスの構成を維持する。また、所定の条件が満たされているときにのみ、調整可能なコントロールが特定のキャプチャ持続時間に設定されているという更新されたインジケーションを表示することにより、ユーザは、キャプチャ持続時間に関連する条件が変化したときに動作する特定のキャプチャ持続時間を計算する必要性を軽減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。新しい多数の画像をキャプチャするように電子デバイスを自動的に構成することは、所定の条件が変化したときにメディアをキャプチャする要求に応答して、ユーザが新しい多数の画像をキャプチャするようにデバイスを手動で構成する必要がある入力の数を低減する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, the electronic device is of the electronic device (eg, by an accelerometer and / or gyroscope) while displaying an indication that the control is set to the first capture duration. The first stability (eg, discussed in FIG. 26R) (eg, the current amount of movement (or lack of movement) of the electronic device) is detected. In some embodiments, the electronic device responds to the detection of the first stability of the electronic device (eg, discussed in FIG. 26R), and the first stability of the electronic device is the first. The control (eg, 1804) is longer than the first capture duration (eg, the first capture duration) according to the determination that the stability threshold of 1 is exceeded (eg, detecting that the electronic device is more stable). (Increase time), display indications (eg 1818) set to a third capture duration (eg 2604c in FIG. 26R); and capture images corresponding to the field of view of one or more cameras. In response to a single request (eg,
いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、図26Hの602c)(例えば、オン)、非アクティブ(例えば、図26Sの602c)(例えば、オフ)、利用可能(例えば、図26Bの602c)(例えば、低光モードが非アクティブであるが、アクティブに設定できる))を示し、かつキャプチャ持続時間表示基準が満たされているという判定に従って、第1のキャプチャ持続時間(例えば、図26Hの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含む、第1の低光キャプチャ状態インジケータ(例えば、602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである間に、電子デバイスは、低光キャプチャモードの状態(例えば、アクティブ(例えば、オン)、非アクティブ(例えば、オフ)、利用可能(例えば、オンにする能力))を示し、かつ持続時間表示基準が満たされていないという判定に従って、第1のキャプチャ持続時間(例えば、図26Eの602c)(又はコントロールが第2のキャプチャ持続時間に設定されているというインジケーションを表示する第2のキャプチャ持続時間)の視覚表現(例えば、26Jの602cの10秒)を含まない、第1の低光キャプチャ状態インジケータを表示する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示するのをやめることによって、片付けられたユーザインタフェースを提供し、かつキャプチャ持続時間がキャプチャ持続時間の通常範囲内であるときにフィードバックによりユーザを視覚的に注意散漫にさせない。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, while the low light camera mode is active, the electronic device is in a low light capture mode state (eg, active (eg, 602c in FIG. 26H) (eg, on), inactive (eg, on). , 602c in FIG. 26S (eg, off), available (eg, 602c in FIG. 26B) (eg, low light mode is inactive but can be set active)) and capture duration display criteria. A second capture duration that displays an indication that the control is set to a second capture duration (eg, 602c in FIG. 26H) according to the determination that is satisfied. ) Is included (eg,
いくつかの実施形態では、キャプチャ持続時間表示基準は、1つ以上のカメラの視野内の周辺光が第1の所定の範囲内にあると満たされる基準を含む(例えば、2680a〜c対2680d)。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が変化すると、電子デバイスは、周辺光(例えば、2680a〜d)が第1の所定の範囲又は第2の所定の範囲にあるかどうかに基づいて、第1のキャプチャ持続時間(例えば、図26Jの602c及びインジケータ1818によって設定されたキャプチャ持続時間)(又は第2のキャプチャ持続時間)の視覚表現を表示するかどうかを自動的に再評価する。 In some embodiments, the capture duration display criteria include criteria for satisfying that the ambient light in the field of view of one or more cameras is within a first predetermined range (eg, 2680a-c vs. 2680d). .. In some embodiments, when the ambient light within the field of view of one or more cameras changes, the electronic device causes the peripheral light (eg, 2680ad) to be in the first predetermined range or the second predetermined range. Automatically display whether to display a visual representation of the first capture duration (eg, the capture duration set by 602c in FIG. 26J and indicator 1818) (or the second capture duration) based on the presence or absence. Re-evaluate.
低光カメラモードがアクティブである前に、いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の周辺光(例えば、2680d)が第2の所定の範囲内である(例えば、1ルクスなどの閾値を下回る)(例えば、キャプチャ持続時間表示基準を満たす第1の所定の範囲内であるときに判定される)という判定に従って、低光キャプチャモードの状態がアクティブである(例えば、低光キャプチャモードがアクティブであることを示す状態(例えば、デバイスが、メディアをキャプチャする要求に応答して、低光キャプチャモードでメディアをキャプチャするように現在構成されている状態))ことを示し、第3のキャプチャ持続時間(例えば、第1又は第2のキャプチャ持続時間)の視覚表現(例えば、26Hの「5秒」)を含む、第2の低光キャプチャ状態インジケータ(例えば、図26Hの602c)を表示する。いくつかの実施形態では、低光カメラモードがアクティブである前に、1つ以上のカメラの視野内の周辺光(例えば、2680c)が第4の所定の範囲(例えば、1ルクス〜10ルクスなどの範囲)内にあるという判定に従って、低光キャプチャモードの状態がアクティブであることを示し、第3のキャプチャ持続時間の視覚表現(例えば、図26Eの602c)を含まない、第3の低光キャプチャ状態インジケータ(例えば、図26Eの602c)を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680b)が第5の所定の範囲(例えば、10〜20ルクスなどの所定の範囲)内であるという判定に従って、低光キャプチャモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータ(例えば、図26Bの602c)(例えば、アクティブ化のために利用可能であるが、現在アクティブではない)(例えば、低光キャプチャモードが利用可能であることを示す状態(例えば、デバイスが、低光キャプチャモードでメディアをキャプチャするように現在構成されていないが、低光モードでメディアをキャプチャするように構成され得る状態)、低光キャプチャモードが利用可能であり、かつユーザによって手動でオン又はオフされていないことを示す状態(例えば、デバイスは、低光キャプチャモードインジケータが最初に(最近)表示されたか、又は低光キャプチャモードインジケータを表示する判定を行ったため、低光キャプチャモードでメディアをキャプチャする又はキャプチャしないように構成されていない))を表示し;1つ以上のカメラの視野内の周辺光(例えば、2680a)が第6の所定の範囲内(例えば、20ルクス超などの所定の範囲)にあるという判定に従って、電子デバイスは、第2の低光キャプチャ状態インジケータと、第3の低光キャプチャ状態インジケータと、第4の低光キャプチャ状態インジケータと、を表示するのをやめる(例えば、図26Aの602cが不存在)。いくつかの実施形態では、第2の低光キャプチャ状態インジケータ、第3の低光キャプチャ状態インジケータ、及び第4の低光キャプチャ状態インジケータは、互いに視覚的に異なる(例えば、表示された色、質感、太さ、文字、又はマークが異なる(例えば、非アクティブ状態を示すために取り消し線が引かれる)、キャプチャ持続時間の視覚表現を有無)。いくつかの実施形態では、低光キャプチャモードの状態が利用可能であることを示す第4の低光状態インジケータは、キャプチャ持続時間(例えば、第3のキャプチャ持続時間)の視覚表現を含まない。いくつかの実施形態では、1つ以上のカメラの視野内の周辺光が第6の所定の範囲であるという判定に従って、電子デバイスは、任意の低光キャプチャ状態インジケータを表示するのをやめる。いくつかの実施形態では、(例えば、周辺光の)第3の所定の範囲は、(例えば、周辺光の)第4の所定の範囲よりも小さく、(例えば、周辺光の)第4の所定の範囲は、(例えば、周辺光の)第5の所定の範囲よりも小さく、第5の所定の範囲は、(例えば、周辺光の)第6の所定よりも小さい。いくつかの実施形態では、所定の範囲は、重複しない(例えば、重複していない所定の範囲)。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態インジケータ内にキャプチャ持続時間の視覚表現を表示することによって、キャプチャ持続時間がキャプチャ持続時間の通常範囲の外側である場合に、電子デバイスを使用して、メディアをキャプチャする、キャプチャ持続時間の現在の状態についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに視覚表現なしで低光状態インジケータを表示することによって、電子デバイスが低光モードの間にメディアをキャプチャするように構成され、ユーザインタフェースを雑然とさせることなく、キャプチャ持続時間の通常範囲であるメディアをキャプチャするためのキャプチャ持続時間を使用するフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光状態を示す低光キャプチャ状態インジケータを表示することによって、ユーザが、低光モードであるが、低光モードでメディアをキャプチャするように(例えば、ユーザ入力を介して)構成可能である間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。所定の条件が満たされているときに低光キャプチャ状態インジケータを表示するのをやめることによって、ユーザが、低光モードである間に、電子デバイスがメディアをキャプチャするように構成されていないことを迅速に認識できるようにし、ユーザが、メディアをキャプチャする要求を受信したことに応答して、電子デバイスが低光モードに従って動作しないことを迅速に理解できるようにする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Prior to the low light camera mode being active, in some embodiments, the electronic device has ambient light (eg, 2680d) within the field of view of one or more cameras within a second predetermined range (eg, 2680d). The low light capture mode state is active (eg, below a threshold such as 1 lux) (eg, determined when it is within a first predetermined range that meets the capture duration display criteria). A state that indicates that the low light capture mode is active (for example, the device is currently configured to capture the media in the low light capture mode in response to a request to capture the media). A second low light capture state indicator (eg, FIG. 26H) showing and including a visual representation (eg, “5 seconds” of 26H) of a third capture duration (eg, first or second capture duration). 602c) is displayed. In some embodiments, the ambient light in the field of view of one or more cameras (eg, 2680c) is in a fourth predetermined range (eg, 1 lux to 10 lux, etc.) before the low light camera mode is active. A third low light that indicates that the low light capture mode state is active and does not include a visual representation of the third capture duration (eg, 602c in FIG. 26E), according to the determination that it is within. A capture status indicator (eg, 602c in FIG. 26E) is displayed; ambient light (eg, 2680b) within the field of view of one or more cameras is in a fifth predetermined range (eg, a predetermined range such as 10 to 20 lux). ), According to the determination that the low light capture mode state is available, a fourth low light capture state indicator (eg, 602c in FIG. 26B) (eg, available for activation). Is not currently active) (eg, a state indicating that low light capture mode is available (eg, the device is not currently configured to capture media in low light capture mode, but low light mode) A state in which the low light capture mode is available and has not been manually turned on or off by the user (eg, the device has a low light capture mode indicator). First (recently) displayed or determined to display the low light capture mode indicator, so it is not configured to capture or not capture media in low light capture mode))); one or more According to the determination that the ambient light (eg, 2680a) in the field of view of the camera is within a sixth predetermined range (eg, a predetermined range such as over 20 lux), the electronic device is placed in a second low light capture state. Stop displaying the indicator, the third low light capture state indicator, and the fourth low light capture state indicator (eg, 602c in FIG. 26A is absent). In some embodiments, the second low light capture state indicator, the third low light capture state indicator, and the fourth low light capture state indicator are visually different from each other (eg, the displayed color, texture). , With or without a visual representation of the capture duration, with a different thickness, text, or mark (eg, withdrawal to indicate inactivity). In some embodiments, the fourth low light condition indicator indicating that the low light capture mode state is available does not include a visual representation of the capture duration (eg, the third capture duration). In some embodiments, the electronic device ceases to display any low light capture state indicator according to the determination that the ambient light in the field of view of one or more cameras is in the sixth predetermined range. In some embodiments, the third predetermined range (eg, of ambient light) is smaller than the fourth predetermined range (eg, of ambient light) and the fourth predetermined range (eg, of ambient light). The range of is smaller than the fifth predetermined range (for example, of ambient light), and the fifth predetermined range is smaller than the sixth predetermined range (for example, of ambient light). In some embodiments, the predetermined ranges do not overlap (eg, non-overlapping predetermined ranges). Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. Use an electronic device when the capture duration is outside the normal range of the capture duration by displaying a visual representation of the capture duration in the low light condition indicator when certain conditions are met. And provide the user with feedback on the current state of the capture duration, which captures the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light condition indicator without visual representation when certain conditions are met, the electronic device is configured to capture media during low light mode without cluttering the user interface. Provides users with feedback using the capture duration to capture media, which is the normal range of capture duration. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve. By displaying a low light capture status indicator that indicates a low light state when certain conditions are met, the user can capture media in low light mode but in low light mode (eg, user). While configurable (via input), it allows the electronic device to quickly recognize that it is not configured to capture media, in response to a user receiving a request to capture media. , Allows you to quickly understand that electronic devices do not operate according to low light mode. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life. By stopping displaying the low light capture status indicator when certain conditions are met, the user is not configured for the electronic device to capture media while in low light mode. Allows for quick recognition and allows the user to quickly understand that an electronic device does not operate according to low light mode in response to receiving a request to capture media. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)は、第1の推奨されるキャプチャ持続時間値(例えば、キャプチャ持続時間が最小値であることを示す値、複数の画像よりも単一の画像を示す値は、単一のキャプチャ要求に応答して、キャプチャされる)に対応する第1の状態(例えば、2604a)(例えば、中心の左(例えば、最も遠い左)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、第2の推奨されるキャプチャ持続時間値(例えば、最小ユーザ選択可能値よりも大きく、かつ現在の条件でユーザによって設定され得る最大利用可能値よりも小さい、電子デバイスによって設定された値)に対応する第2の状態(例えば、2604b)(例えば、コントロール上の調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の中心位置)と、第3の推奨されるキャプチャ持続時間値(例えば、現在の条件でユーザによって設定され得る最大利用可能値、最大利用可能値は、照明条件及び又はカメラ安定性が変化するにつれて任意選択的に変化する(照明レベルが低下し、かつ/又はカメラがより安定であると増加し、照明レベルが増加し、かつ/又はカメラがより不安定であると減少する)に対応する第3の状態(例えば、2604c)(例えば、中心の右(例えば、最も遠い右)である調整可能なコントロール(例えば、位置での調整可能なコントロールのティックマーク)上の位置)と、を調整可能なように構成される。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態のコントロール上の位置がコントロール上に表示され、かつ互いに視覚的に区別可能である(例えば、異なるように標識される(例えば、「OFF」、「自動」、「MAX」)。いくつかの実施形態では、調整可能なコントロールを表示するときに、第1の状態、第2の状態、及び第3の状態の調整可能なコントロール(例えば、ティックマーク)上の位置が調整可能なコントロール上の他の位置(例えば、ティックマーク)から視覚的に区別可能である。いくつかの実施形態では、(例えば、第1、第2、及び第3の状態とは視覚的に異なる)1つ以上の選択可能状態が存在する。いくつかの実施形態では、調整可能なコントロールは、選択可能状態に対応する位置に設定され得る。いくつかの実施形態では、調整可能なコントロールは、選択可能状態のうちの2つ以上の位置の間である位置(例えば、中間位置)に設定され得る。低光モードにある間に電子デバイスがメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することにより、特定のキャプチャ持続時間の既定の状態(例えば、オフ状態、デフォルト状態、最大状態)に対応するキャプチャ持続時間についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the control that adjusts the capture duration to capture the media (eg, 1804) is the first recommended capture duration value (eg, a value that indicates that the capture duration is the minimum). A value indicating a single image rather than a plurality of images corresponds to a first state (eg, 2604a) (eg, to the left of the center (eg, eg, captured) in response to a single capture request). The position on the adjustable control (eg, the tick mark of the adjustable control in position) that is the farthest left) and the second recommended capture duration value (eg, the minimum user selectable value). A second state (eg, 2604b) (eg, an adjustable control on the control) that corresponds to a second state (eg, 2604b) that is greater and less than the maximum available value that can be set by the user under the current conditions. A center position on (eg, a tick mark of an adjustable control in position) and a third recommended capture duration value (eg, maximum available value, maximum utilization that can be set by the user under the current conditions). Possible values change arbitrarily as the lighting conditions and / or camera stability change (the lighting level decreases and / or increases as the camera is more stable, the lighting level increases and / or Adjustable control (eg, position adjustable) that is a third state (eg, 2604c) (eg, right of the center (eg, farthest right)) corresponding to a third state (eg, 2604c) that corresponds to the camera becoming more unstable. The position on the tick mark of the control) and is configured to be adjustable. In some embodiments, when displaying the adjustable control, the first state, the second state, and The position on the control of the third state is displayed on the control and is visually distinguishable from each other (eg, labeled differently (eg, "OFF", "automatic", "MAX"). In some embodiments, when displaying an adjustable control, the position on the adjustable control (eg, tick mark) of the first, second, and third states is adjustable. It is visually distinguishable from other positions on the control (eg, tick marks). In some embodiments (eg, visually different from the first, second, and third states) 1. There are one or more selectable states. In some embodiments, The adjustable control can be set to a position corresponding to the selectable state. In some embodiments, the adjustable control may be set to a position (eg, an intermediate position) between two or more positions in the selectable state. Supports the default state of a particular capture duration (eg, off state, default state, maximum state) by displaying controls that adjust the capture duration for the electronic device to capture the media while in low light mode. Provide users with feedback on the duration of the capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、電子デバイスは、1組の第1のキャプチャ持続時間基準であるという判定に従って、第2の状態(例えば、図26Gの2604b)(例えば、コントロールが第1のキャプチャ持続時間に設定されているインジケーションをコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第1のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Gの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示し;かつ1組の第2のキャプチャ持続時間基準という判定に従って、第2の状態(例えば、図26Iの2604b)(例えば、コントロールが第2のキャプチャ持続時間に設定されているインジケーションをコントロール上の第2の推奨されるキャプチャ持続時間値に対応する位置に表示される)(ここで、第2のキャプチャ持続時間は、第2の推奨されるキャプチャ持続時間値である)へと(例えば、に)調整されたメディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、図26Iの1804)を(例えば、コントロールが表示される(例えば、最初に表示される)ときに)表示する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is determined to be a set of first capture duration criteria as part of displaying a control (eg, 1804) that adjusts the capture duration to capture the media. According to the second state (eg, 2604b in FIG. 26G) (eg, the position where the control is set to the first capture duration corresponds to the second recommended capture duration value on the control. A control that adjusts the capture duration to capture the media adjusted to (where the first capture duration is the second recommended capture duration value) (eg, Figure). 26G 1804) is displayed (eg, when the control is displayed (eg, first displayed); and according to the determination of a set of second capture duration criteria, a second state (eg, eg). 2604b in FIG. 26I) (for example, the indication for which the control is set to the second capture duration is displayed at the position corresponding to the second recommended capture duration value on the control) (where The second capture duration is a control that adjusts the capture duration to capture the media adjusted (eg, to) to (eg, the second recommended capture duration value) (eg, 1804 in FIG. 26I). (For example, when the control is displayed (for example, when it is first displayed)). By providing different recommended capture durations for the capture duration state based on when each given condition is met, the user will be able to use each of them when their respective default conditions are met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示することの一部として、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態(例えば、2604c)であるとの判定、及び1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Rの2604c)は、第3のキャプチャ持続時間値であり、メディアをキャプチャするキャプチャ持続時間を調整するコントロールが第3の状態にあるとの判定、及び1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、第3の推奨されるキャプチャ持続時間値(例えば、図26Sの2604c)は、第3のキャプチャ持続時間値とは異なる(例えば、より大きい)第4のキャプチャ持続時間値である。いくつかの実施形態では、最大ユーザ選択可能キャプチャ持続時間は、動的であり、かつオンカメラ安定化、環境条件、光レベル、カメラ動き、及び/又はシーン動きのうちの1つ以上に基づいて変化する。それぞれの所定の条件満たされるときに基づいて、キャプチャ持続時間状態に対して異なる推奨されるキャプチャ持続時間を提供することにより、ユーザは、それぞれの既定の条件が満たされるときに使用されるそれぞれのキャプチャ持続時間に基づいて、特定のキャプチャ持続時間状態に対応する値を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control that adjusts the capture duration to capture the media (eg, 1804), the control that adjusts the capture duration to capture the media is in a third state (eg, 1804). , 2604c), and a third recommended capture duration value (eg, 2604c in FIG. 26R) is determined according to the determination that a set of first capture duration criteria is met. According to the determination that the capture duration value of 3 is in the third state and that the control that adjusts the capture duration to capture the media is in the third state, and that a set of second capture duration criteria is met. , The third recommended capture duration value (eg, 2604c in FIG. 26S) is a fourth capture duration value that is different (eg, larger) than the third capture duration value. In some embodiments, the maximum user selectable capture duration is dynamic and is based on one or more of on-camera stabilization, environmental conditions, light levels, camera movement, and / or scene movement. Change. By providing different recommended capture durations for the capture duration state based on when each given condition is met, the user will be able to use each of them when their respective default conditions are met. Based on the capture duration, the value corresponding to a particular capture duration state can be quickly recognized. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2のキャプチャ持続時間値は、第5のキャプチャ持続時間値であり、第3の推奨されるキャプチャ持続時間値は、第6のキャプチャ値である。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、1804)を表示している間に、電子デバイスは、電子デバイスの現在の条件(例えば、電子デバイスの安定化、1つ以上のカメラによって検出された周辺光、1つ以上のカメラの視野内の移動)の第1の変化を検出する。いくつかの実施形態では、電子デバイスの現在の条件の第1の変化を検出したことに応答して、及び第1の現在の条件が第3のキャプチャ持続時間基準を満たすという判定に従って、電子デバイスは、第2の推奨されるキャプチャ持続時間値(例えば、2604b)のうちの少なくとも1つを、第7のキャプチャ持続時間に変更する。いくつかの実施形態では、第5のキャプチャ持続時間は、第7のキャプチャ持続時間とは異なる。いくつかの実施形態では、第3の推奨されるキャプチャ持続時間値(例えば、2604c)は、第8のキャプチャ持続時間である。いくつかの実施形態では、第8のキャプチャ持続時間は、第6のキャプチャ持続時間とは異なる。 In some embodiments, the second capture duration value is the fifth capture duration value and the third recommended capture duration value is the sixth capture value. In some embodiments, the electronic device captures the media while displaying a control that adjusts the capture duration (eg, 1804), while the electronic device presents the electronic device's current conditions (eg, electronic device stabilization, etc.). Detects a first change in ambient light (movement within the field of view of one or more cameras) detected by one or more cameras. In some embodiments, the electronic device responds to the detection of a first change in the current condition of the electronic device, and according to the determination that the first current condition meets the third capture duration criterion. Changes at least one of the second recommended capture duration values (eg, 2604b) to the seventh capture duration. In some embodiments, the fifth capture duration is different from the seventh capture duration. In some embodiments, the third recommended capture duration value (eg, 2604c) is the eighth capture duration. In some embodiments, the eighth capture duration is different from the sixth capture duration.
いくつかの実施形態では、1組の第1のキャプチャ持続時間基準(例えば、又は第2のキャプチャ持続時間基準)は、1つ以上のカメラの視野内で検出された周辺光(例えば、対応する期間にわたって周辺光の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、周辺光の第1の所定の範囲とは異なる周辺光の第2の所定範囲を上回る)、1つ以上のカメラの視野内で検出された周辺光)と、1つ以上のカメラの視野内で検出された移動(例えば、対応する期間にわたって1つ以上のカメラの視野内の検出された移動の第1の所定の範囲内にある(又は、第2のキャプチャ持続時間基準の場合、1つ以上のカメラの視野内の第1の所定の移動範囲とは異なる1つ以上のカメラの視野内の第2の所定の移動範囲を上回る)、1つ以上のカメラの視野内で検出された移動)と、電子デバイスの(例えば、加速度計及び/又はジャイロスコープによる)第2の安定度(例えば、対応する期間にわたって電子デバイスの現在の移動量(又は移動の欠如))(例えば、第2の安定性閾値を上回る、電子デバイスの第2の安定度(又は、第2のキャプチャ持続時間の場合、第2の安定性閾値とは異なる第3の安定性閾値を上回る)と、からなる群から選択される1つ以上のパラメータに基づく基準を含む。 In some embodiments, a set of first capture duration criteria (eg, or second capture duration criteria) is ambient light (eg, corresponding) detected within the field of view of one or more cameras. Within a first predetermined range of ambient light over a period of time (or, in the case of a second capture duration reference, above a second predetermined range of ambient light that is different from the first predetermined range of ambient light) Ambient light detected within the field of view of one or more cameras) and movement detected within the field of view of one or more cameras (eg, detected within the field of view of one or more cameras over a corresponding period). The field of view of one or more cameras that is within the first predetermined range of movement (or, in the case of the second capture duration reference, is different from the first predetermined range of movement within the field of view of the one or more cameras). A second stability (eg, by an accelerometer and / or a gyroscope) of an electronic device (eg, a movement detected within the field of view of one or more cameras) within a second predetermined range of movement within. For example, the current amount of movement (or lack of movement) of the electronic device over the corresponding period (eg, of the second stability (or second capture duration) of the electronic device above the second stability threshold. In the case of exceeding a third stability threshold that is different from the second stability threshold), and includes criteria based on one or more parameters selected from the group consisting of.
いくつかの実施形態では、メディアキャプチャユーザインタフェースを表示することの一部として、電子デバイスは、1つ以上のカメラの視野の表現(例えば、603)と同時に、メディアをキャプチャするアフォーダンス(例えば、610)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、メディアをキャプチャする及びコントロール(例えば、1804)が第3のキャプチャ持続時間(例えば、第1のキャプチャ持続時間、第2のキャプチャ持続時間、又はコントロールを設定することに向けられたユーザ入力で設定された別の持続時間)に設定されているインジケーション(例えば、1818)を表示するアフォーダンスを表示している間に、電子デバイスは、メディアをキャプチャするアフォーダンスの選択を含む第1の入力(例えば、2650j)(例えば、タップ)を検出する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスの選択は、1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に対応する。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始する。 In some embodiments, as part of displaying the media capture user interface, the electronic device captures the media at the same time as the representation of the field of view of one or more cameras (eg, 603), as well as the affordance (eg, 610). ) (For example, selectable user interface objects). In some embodiments, the media is captured and the control (eg, 1804) is directed towards setting a third capture duration (eg, first capture duration, second capture duration, or control). While displaying an affordance that displays an indication (eg, 1818) that is set to an indication (eg, 1818) that is set to a different duration set by the user input, the electronic device includes a selection of the affordance to capture the media. The first input (eg, 2650j) (eg, tap) is detected. In some embodiments, the choice of affordance to capture the media corresponds to a single requirement to capture an image corresponding to the field of view of one or more cameras. In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to the affordance to capture the media, the electronic device has a fourth plurality of images over the first capture duration. Start capturing.
いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第1のインジケーションである。いくつかの実施形態では、第1のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第1の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、コントロール上の第1の位置からコントロール上の第2の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)へと第1のインジケーションを動かすアニメーション(例えば、図26J〜図26Q)を表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、第2の位置に第1のインジケーションを表示したことに応答して、電子デバイスは、コントロール上の第1の位置に第1のインジケーションを再表示する(例えば、図26Q〜図26Rの1818)(及びコントロール上の第2の位置での第1のインジケーションの表示を停止する)。予め設定されたキャプチャ持続時間に対応する位置に戻って、キャプチャ持続時間を調整するコントロール上のインジケーションを再表示することにより、ユーザは、直近にキャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間を迅速に認識することができ、ユーザがキャプチャ持続時間を調整するコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (eg, 1818) that the control (eg, 1804) is set to the third capture duration is the first indication. In some embodiments, the first indication appears in the first position on the control that corresponds to the third capture duration. In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to the affordance to capture the media, the electronic device moves from the first position on the control to the second on the control. Display an animation (eg, FIGS. 26J-26Q) that moves the first indication to the position of (eg, a position on the control that corresponds to a capture duration of zero, which is different from the third capture duration). (For example, the second position on the control is different from the first position on the control) (eg, slide the indication (eg, slider bar) over the slider) (eg, unwind (eg, from the value) Countdown to zero)). In some embodiments, in response to displaying the first indication in the second position, the electronic device redisplays the first indication in the first position on the control (eg, for example. 1818 of FIGS. 26Q to 26R (and stop displaying the first indication at the second position on the control). The user was used to capture the most recently captured media by returning to the position corresponding to the preset capture duration and redisplaying the indication on the control that adjusts the capture duration. The capture duration can be recognized quickly, reducing the number of inputs that the user needs to reset the controls that adjust the capture duration. By providing users with improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with the device / with the device). By assisting the user in providing proper input when interacting (by reducing user error), and by allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.
いくつかの実施形態では、コントロール(例えば、1804)が第3のキャプチャ持続時間に設定されているというインジケーション(例えば、1818)は、第2のインジケーションである。いくつかの実施形態では、第2のインジケーションは、第3のキャプチャ持続時間に対応するコントロール上の第3の位置に表示される。いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力を検出したことに応答して、電子デバイスは、コントロール上の第3の位置からコントロール上の第4の位置(例えば、第3のキャプチャ持続時間とは異なる、ゼロのキャプチャ持続時間に対応するコントロール上の位置)へと第2のインジケーションを動かすアニメーションを表示する(例えば、コントロール上の第2の位置は、コントロール上の第1の位置とは異なる)(例えば、スライダにわたってインジケーション(例えば、スライダバー)をスライドする)(例えば、巻き出す(例えば、値からゼロへのカウントダウン))。いくつかの実施形態では、アニメーションを表示している間に、電子デバイスは、電子デバイスの現在の条件の第2の変化を検出する。いくつかの実施形態では、条件の第2の変化を検出したことに応答して、及び第2の現在の条件が第4のキャプチャ持続時間基準を満たすという判定に従って、及び第4の位置(例えば、最大キャプチャ持続時間値(又は第3の推奨されるキャプチャ持続時間値)の位置に対応する位置)に第1のインジケーションを表示したことに応答して、電子デバイスは、第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応するコントロール上の第5の位置に、第2のインジケーションを表示する。いくつかの実施形態では、現在の条件が第4のキャプチャ持続時間基準を満たさないという判定に従って、及び第4の位置に第2のインジケーションを表示したことに応答して、電子デバイスは、コントロール上の第3の位置に第2のインジケーションを再表示する。所定の条件であるときにキャプチャ持続時間を異なるキャプチャ持続時間値に調整するためのコントロール上のインジケーションを表示することにより、ユーザは、最も最近キャプチャされたメディアをキャプチャするために使用されたキャプチャ持続時間が変化したことを迅速に認識することができ、ユーザが、キャプチャ持続時間を所定の条件に好ましい(例えば、キャプチャの長さをバランスしている間により良い品質画像を生成する可能性が高い)新しいキャプチャ持続時間に調整するためのコントロールをリセットする必要がある入力の数を低減する。改善された視覚的フィードバックをユーザに提供し、操作を行うために必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the indication (eg, 1818) that the control (eg, 1804) is set to the third capture duration is the second indication. In some embodiments, the second indication is displayed at a third position on the control that corresponds to the third capture duration. In some embodiments, in response to detecting a first input corresponding to the affordance that captures the media, the electronic device moves from a third position on the control to a fourth position on the control (eg, for example. Display an animation that moves the second indication to a position on the control that corresponds to a capture duration of zero, which is different from the third capture duration (for example, the second position on the control is on the control). Different from the first position of) (eg, slide the indication (eg, slider bar) over the slider) (eg, unwind (eg, count down from value to zero)). In some embodiments, the electronic device detects a second change in the current conditions of the electronic device while displaying the animation. In some embodiments, in response to detecting a second change in condition, and according to the determination that the second current condition meets the fourth capture duration criterion, and in a fourth position (eg, for example). In response to displaying the first indication at the position corresponding to the position of the maximum capture duration value (or the third recommended capture duration value), the electronic device has a third capture duration. A second indication is displayed at the fifth position on the control corresponding to the fourth capture duration, which is different from the time. In some embodiments, the electronic device controls according to the determination that the current conditions do not meet the fourth capture duration criterion and in response to displaying the second indication in the fourth position. Redisplay the second indication in the third position above. By displaying an indication on the control to adjust the capture duration to a different capture duration value under certain conditions, the user can use the capture used to capture the most recently captured media. It is possible to quickly recognize that the duration has changed and the user may prefer the capture duration to a given condition (eg, to produce a better quality image while balancing the capture length). Higher) Reduces the number of inputs that need to be reset to adjust to a new capture duration. By providing users with improved visual feedback and reducing the number of inputs required to perform operations, the device is more user-friendly and the user-device interface (eg, interacting with the device / with the device). By assisting the user in providing proper input when interacting (by reducing user error), and by allowing the user to use the device faster and more efficiently. Reduces device power usage and improves battery life.
いくつかの実施形態では、(例えば、1つ以上のカメラにより)メディアをキャプチャする間に(例えば、キャプチャを開始した後に)、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第1の時間において、電子デバイスは、第1の時間の前に(例えば、第1の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第3の合成画像の表現(例えば、630)表現(例えば、図18A〜図18Xの624)を表示し、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後の第2の時間において、電子デバイスは、第2の時間の前に(例えば、第2の時間の前に、及びキャプチャが開始された時間の後に)1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第4の合成画像の表現(例えば、630)(例えば、図18A〜図18Xの624)を表示する。いくつかの実施形態では、第1の時間は、第2の時間とは異なる。いくつかの実施形態では、第3の合成画像の表現は、第4の合成画像の表現と視覚的に区別される。 In some embodiments, while capturing the media (eg, with one or more cameras) (eg, after initiating the capture), the capture of the first plurality of images over the first capture duration is initiated. In the first time after the capture, the electronic device was captured by one or more cameras before the first time (eg, before the first time and after the time when the capture was started). A first composite image representation (eg, 630) representation (eg, 624 of FIGS. 18A-18X) based on at least some content from the plurality of images is displayed and the first capture duration spans the first. In the second time after starting the capture of multiple images, the electronic device is one before the second time (eg, before the second time and after the time when the capture was started). Display a representation of a fourth composite image (eg, 630) (eg, 624 of FIGS. 18A-18X) based on at least some content from the plurality of images captured by the camera. In some embodiments, the first time is different from the second time. In some embodiments, the representation of the third composite image is visually distinguished from the representation of the fourth composite image.
いくつかの実施形態では、メディアをキャプチャするアフォーダンス(例えば、610)に対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、メディアをキャプチャするアフォーダンスの視覚外観(例えば、暗くする)を変更する。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができないことを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a first input (eg, 2650j) corresponding to an affordance that captures the media (eg, 610), the electronic device has a visual appearance of the affordance that captures the media. Change (for example, darken). By updating the visual characteristics of the icon to reflect the activation state without performing any action, it provides the user with feedback on the current state of the icon, and the electronic device is capturing the media, but the media. Provides the user with visual feedback indicating that the capture of the can not be interrupted or stopped during the media capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、メディア(例えば、2650j)をキャプチャするアフォーダンス(例えば、610)に対応する第1の入力を検出したことに応答して、電子デバイスは、メディアをキャプチャするアフォーダンスの表示を、メディアをキャプチャするアフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンス(例えば、1806)(例えば、停止アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))の表示に置き換える。いくつかの実施形態では、停止アフォーダンスは、カメラ持続時間に基づいて、時間中に表示される。いくつかの実施形態では、停止アフォーダンスがカメラ持続時間に基づいて、時間中に表示された後、電子デバイスは、カメラ持続時間が満了すると、停止アフォーダンスの表示を、メディアをキャプチャする要求のためのアフォーダンスに置き換える。いくつかの実施形態では、停止アフォーダンスを表示している間に、電子デバイスは、キャプチャ持続時間の終了前に停止アフォーダンスの選択に対応する入力を受信し、停止ボタンに対応する入力を受信したことに応答して、電子デバイスは、複数の画像をキャプチャするのを停止する。いくつかの実施形態では、キャプチャの終了前に停止アフォーダンスを選択することにより、より少ない画像をキャプチャさせる。いくつかの実施形態では、より少ない画像で生成された合成画像は、より多くの画像(例えば、又はフルキャプチャ持続時間中に撮影された画像)で生成された合成画像よりも暗くなる。動作を実行せずにアクティブ化状態を反映するようにアイコンの視覚特性を更新することにより、アイコンの現在の状態についてのフィードバックをユーザに提供し、電子デバイスがメディアをキャプチャしているが、メディアのキャプチャを、メディアキャプチャ中に中断又は停止することができ、かつユーザがアイコンを1回以上アクティブ化する場合には、アイコンに関連付けられた動作が行われることを示す視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a first input corresponding to an affordance (eg, 610) that captures the media (eg, 2650j), the electronic device displays an affordance that captures the media (eg, 610). Replace with a display of affordances (eg, 1806) (eg, stop affordances (eg, selectable user interface objects)) that end the capture of the media, which is visually different from the affordances that capture the media. In some embodiments, the stop affordance is displayed in time based on the camera duration. In some embodiments, after the stop affordance is displayed during the time based on the camera duration, the electronic device displays the stop affordance when the camera duration expires, for a request to capture the media. Replace with affordance. In some embodiments, while displaying the stop affordance, the electronic device receives the input corresponding to the stop affordance selection and the input corresponding to the stop button before the end of the capture duration. In response, the electronic device stops capturing multiple images. In some embodiments, less images are captured by selecting a stop affordance before the end of the capture. In some embodiments, the composite image produced with fewer images will be darker than the composite image produced with more images (eg, or images taken during the full capture duration). By updating the visual characteristics of the icon to reflect the activation state without performing any action, it provides the user with feedback about the icon's current state, and the electronic device is capturing the media, but the media. Can be interrupted or stopped during a media capture, and provides the user with visual feedback that the action associated with the icon will occur if the user activates the icon more than once. do. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、メディアをキャプチャするアフォーダンスに対応する第1の入力(例えば、2650j)を検出したことに応答して、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルがより大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(例えば、図26J〜図26Q及び図28A〜図28Bの方法2800に関連して後述及び上述したように)。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、電子デバイスは、a)メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、b)メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された後に、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。
In some embodiments, the electronic device initiates media capture via the display device in response to detecting a first input (eg, 2650j) corresponding to the media capturing affordance. The difference between the pose of the electronic device (eg, orientation and / or position) at the time and the pose of the electronic device (eg, orientation and / or position) at the first time after starting the capture of the media (eg, 1). Greater degree between two or more different rotation angles or axes (eg, any value, including zero degree), degree between orientations of the electronic device when media capture is initiated, and difference threshold level Display a visual indication (eg, 2670) (eg, a box containing one or more shapes with different colors, lines with different colors) of the orientation of the electronic device after the media capture is started (eg, 2670). For example, as described below and above in connection with
いくつかの実施形態では、第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャを開始した後に、及び第1のキャプチャ持続時間にわたる第1の複数の画像のキャプチャの終了を検出する前に、電子デバイスは、第1のキャプチャ持続時間が閾値を上回るという判定に従って(例えば、図26Jの2604b)(例えば、1秒(単数又は複数)などの閾値を下回る)、1つ以上の低光モードアニメーションを表示し(例えば、図26J〜図26Q)、第1のキャプチャ持続時間が閾値を上回るという判定に従って(例えば、図26Fの2604b)、1つ以上の低光モードアニメーションを表示するのをやめる(例えば、図26F〜図26G)(例えば、シャッターアフォーダンスを退色させる、アニメーションを展開する、ガイダンスを示すなど)。いくつかの実施形態では、低光モードアニメーションは、デバイスを依然として保持するための視覚ガイダンス(例えば、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、電子デバイスのポーズ(例えば、向き及び/又は位置)と、の間の差の視覚インジケーション)、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを更新するアニメーション、調整可能なコントロール上のインジケーションを更新すること、1つ以上のカメラの視野の表現を更新するアニメーションを含む。いくつかの実施形態では、電子デバイスは、キャプチャを開始する前の状態で表示を維持することによって、1つ以上の低光モードアニメーションを表示するのをやめる。所定の条件が満たされているときにのみ、アニメーションを表示することにより、ユーザは、電子デバイスがメディアをキャプチャしているかどうかを迅速に認識することができ、キャプチャされたメディアの状態のインジケーション、及びデバイスがメディアをキャプチャしている間のメディアキャプチャの改善方法に関するガイダンスを提供する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after starting the capture of the first plurality of images over the first capture duration and before detecting the end of the capture of the first plurality of images over the first capture duration. , The electronic device has one or more low light modes according to the determination that the first capture duration exceeds the threshold (eg, 2604b in FIG. 26J) (eg, below the threshold such as 1 second (s)). Display the animation (eg, FIGS. 26J-26Q) and stop displaying one or more low light mode animations according to the determination that the first capture duration exceeds the threshold (eg, 2604b in FIG. 26F). (For example, FIGS. 26F to 26G) (for example, fading the shutter affordance, developing an animation, showing guidance, etc.). In some embodiments, the low light mode animation is an electronic with visual guidance for still holding the device (eg, the pose (eg, orientation and / or position) of the electronic device when the capture of the media is started). Visual indication of the difference between the device's pose (eg orientation and / or position), capture the media, update the controls to adjust the capture duration, update the indications on the adjustable controls Includes animations that update the representation of the field of view of one or more cameras. In some embodiments, the electronic device ceases to display one or more low light mode animations by maintaining the display in its pre-capture state. By displaying the animation only when certain conditions are met, the user can quickly recognize whether the electronic device is capturing the media, and the state of the captured media is indicated. , And provide guidance on how to improve media capture while the device is capturing media. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
方法2700に関して上述された処理(例えば、図27A〜図27C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2800、3000、3200、3400、3600、及び3800は、方法2700を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2800は、任意選択的に、方法2700に関連して上述した様々な技術を使用して、合成画像を生成するために、複数の画像をキャプチャする1つ以上の技術を採用する。
It should be noted that the details of the processes described above for method 2700 (eg, FIGS. 27A-27C) are also applicable to the methods described above in a similar manner. For example,
図28A〜図28Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法2800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法2800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
28A-28B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments.
後述するように、方法2800は、メディアをキャプチャする間にガイダンスを提供するための直感的な仕方を提供する。この方法は、メディアをキャプチャする間にガイダンスを提供する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を有する。電子デバイスは、表示デバイスを介して、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)の視野の表現(例えば、630)(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含むメディアキャプチャユーザインタフェースを表示する(2802)。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). An electronic device is an image of one or more cameras (eg, an open observable area visible to the camera, a horizontal (or vertical or diagonal) length of an image at a given distance from a camera lens) through a display device. Display a media capture user interface that includes a representation of the field of view (eg, 630) (eg, representation overtime, live preview feed of data from the camera) (2802).
表示デバイスを介して、メディアキャプチャユーザインタフェースを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2650j)(例えば、表示デバイスに表示されている又は物理的に接続されたシャッターアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)上でのユーザ入力)を受信する(2804)。 While displaying the media capture user interface through the display device, the electronic device requests to capture the media (eg, 2650j) (eg, the shutter displayed or physically connected to the display device). Receives affordances (eg user input on selectable user interface objects) (2804).
メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラを介して(例えば、1つ以上のカメラの少なくとも第1のカメラを介して)、メディアのキャプチャを開始する(2806)。 In response to receiving a request to capture media, the electronic device initiates media capture through one or more cameras (eg, through at least the first camera of one or more cameras). (2806).
1つ以上のカメラを介して、メディアのキャプチャを開始した(例えば、メディアをキャプチャする要求を受信したことに応答して、メディアのキャプチャを開始した、1つ以上のカメラを初期化した、メディアキャプチャインタフェースを表示又は更新した)後の第1の時間において(2808)、低光モードがアクティブであるとき(例えば、図26Jの602c)(例えば、1つ以上のカメラのうちの少なくとも1つが低光環境でメディアをキャプチャするように構成されているとき)に満たされる基準を含む、1組のガイダンス基準(低光モードがアクティブであるときのキャプチャ持続時間(例えば、時間(例えば、合計キャプチャ時間、露出時間)、ピクチャ/フレームの数で測定)に基づく1組のガイダンス基準)が満たされているという判定に従って、電子デバイスは、表示デバイスを介して、メディアのキャプチャが開始されたときの電子デバイスのポーズ(例えば、向き及び/又は位置)と、メディアのキャプチャを開始した後の第1の時間における電子デバイスのポーズ(例えば、向き及び/又は位置)との差(例えば、1つ以上の異なる回転角度又は回転軸間の度合い(例えば、ゼロ度を含む任意の値)、メディアのキャプチャが開始されたときの電子デバイスの向きの間の度合い、及び差の閾値レベルがより大きい、メディアのキャプチャを開始された後の電子デバイスの向き)の視覚インジケーション(例えば、図2670)(例えば、異なる色を有する1つ以上の形状、異なる色を有する線を含むボックス)を表示する(2810)。いくつかの実施形態では、低光カメラモードは、低光条件が満たされているときにアクティブである。いくつかの実施形態では、低光条件は、1つ以上のカメラの視野内の周辺光がそれぞれの閾値を下回るとき、電子デバイスが低光モードで動作していることを示す低光状態インジケータをユーザが選択する(例えば、オンにする)とき、低光カメラモードをアクティブ化する設定をユーザがオンにする、又はアクティブ化するとき、に満たされる条件を低光条件が含むと満たされる。いくつかの実施形態では、ポーズの差は、電子デバイスの先行ポーズに対して測定される。いくつかの実施形態では、ポーズの差は、1つ以上のカメラの視野内の対象の先行ポーズ(例えば、電子デバイスの現在の又は時間遅延の向き)に対して測定される。いくつかの実施形態では、差はゼロではない差である。いくつかの実施形態では、差はゼロである。いくつかの実施形態では、1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、メディアのキャプチャを開始する時間で電子デバイスの向きからの第1の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観を有し、メディアのキャプチャを開始する時間で電子デバイスの向きからの第2の差値を有する第1の時間での電子デバイスの向きに従って、第1の外観とは異なる第2の外観を有する、視覚ガイドを表示する。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、メディアのキャプチャが開始された場合、いつ電子デバイスがその元の位置から動いたかを迅速に認識することができ、かつユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Media that started capturing media through one or more cameras (eg, initialized one or more cameras that started capturing media in response to receiving a request to capture media) In the first time after (displaying or updating the capture interface) (2808), when the low light mode is active (eg, 602c in FIG. 26J) (eg, at least one of one or more cameras is low). A set of guidance criteria (eg, time (eg, total capture time) when low light mode is active), including criteria that meet the criteria that are met when the media is configured to capture in a light environment. According to the determination that a set of guidance criteria) based on (exposure time), measured by the number of pictures / frames) is met, the electronic device is electronically captured through the display device when media capture is initiated. The difference (eg, one or more) between the pose of the device (eg, orientation and / or position) and the pose of the electronic device (eg, orientation and / or position) in the first time after starting the capture of the media. The degree between different rotation angles or axes of rotation (eg, any value, including zero degrees), the degree between the orientations of the electronic devices when the capture of the media was started, and the threshold level of the difference is greater for the media. Display visual indications (eg, FIG. 2670) (eg, one or more shapes with different colors, boxes containing lines with different colors) of the orientation of the electronic device after the capture is initiated (2810). .. In some embodiments, the low light camera mode is active when low light conditions are met. In some embodiments, the low light condition provides a low light condition indicator indicating that the electronic device is operating in low light mode when the ambient light in the field of view of one or more cameras falls below their respective thresholds. The low light condition is satisfied when the user turns on or activates the setting to activate the low light camera mode when the user selects (for example, turns on) the low light condition. In some embodiments, the pose difference is measured with respect to the preceding pose of the electronic device. In some embodiments, the pose difference is measured with respect to the preceding pose of the object in the field of view of one or more cameras (eg, the current or time delay orientation of the electronic device). In some embodiments, the difference is a non-zero difference. In some embodiments, the difference is zero. In some embodiments, in the first time after starting the capture of the media through one or more cameras, the first difference from the orientation of the electronic device at the time to start the capture of the media. According to the orientation of the electronic device at the first time it has, the electronic device at the first time has a first appearance and a second difference from the orientation of the electronic device at the time to start capturing the media. Displays a visual guide that has a second appearance that is different from the first appearance according to the orientation of. By providing visual guidance only when certain conditions are met, the user can quickly recognize when the electronic device has moved from its original position when media capture begins. Same framing as when capturing multiple images so that the user can and can use a maximum number of images and easily combine them to form a usable or improved merged photo. Can be maintained. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように電子デバイスが構成されていると満たされる基準を更に含む(例えば、図26J〜図26Q)。いくつかの実施形態では、メディアをキャプチャするキャプチャ持続時間を調整するコントロール(例えば、スライダ)は、第1のキャプチャ持続時間のインジケーション(例えば、スライダバー)を含む。コントロールにより、電子デバイスに、インジケーションの持続時間に対応する持続時間(例えば、第1のキャプチャ持続時間)を構成させる。所定の条件が満たされているときにのみ、視覚ガイダンスを提供することにより、ユーザは、キャプチャ持続時間が閾値キャプチャ持続時間を超える場合、いつ電子デバイスがその元の位置から動いたかを、バッテリ寿命を無駄にすることなく、及び視覚ガイダンスが必要ない状況で視覚注意散漫を引き起こすことなく(例えば、これらの条件が満たされていないときに視覚ガイダンスを提供することによって)、迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a set of guidance criteria further includes criteria that are met when the electronic device is configured to capture multiple images over a first capture duration that exceeds a threshold duration (eg,). , FIGS. 26J to 26Q). In some embodiments, the control (eg, slider) that adjusts the capture duration to capture the media includes an indication of the first capture duration (eg, slider bar). The control causes the electronic device to configure a duration corresponding to the duration of the indication (eg, the first capture duration). By providing visual guidance only when certain conditions are met, the user can tell when the electronic device has moved from its original position if the capture duration exceeds the threshold capture duration. To recognize quickly without wasting and without causing visual distraction in situations where visual guidance is not needed (eg, by providing visual guidance when these conditions are not met). can. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)(例えば、第1のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始したときの電子デバイスのポーズを表す。いくつかの実施形態では、第1の1組の1つ以上の形状は、メディアキャプチャユーザインタフェース上の第1の位置に表示される。いくつかの実施形態では、第2の1組の1つ以上の形状(例えば、2670c)(例えば、第2のボックス、十字、円/楕円、1つ以上の線)は、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズを表す。いくつかの実施形態では、第2の1組の1つ以上の形状は、第2の位置に表示される。いくつかの実施形態では、メディアのキャプチャを開始したときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第1の時間での電子デバイスのポーズと間の差が存在するときに、メディアキャプチャユーザインタフェース上の第1の位置とは異なるディスプレイ上の第2の位置(例えば、オフセット位置)。 In some embodiments, the first set of one or more shapes (eg, 2670b) (eg, first box, cross, circle / ellipse, one or more lines) initiates media capture. Represents the pose of the electronic device when In some embodiments, the first set of one or more shapes is displayed in a first position on the media capture user interface. In some embodiments, a second set of one or more shapes (eg, 2670c) (eg, a second box, cross, circle / ellipse, one or more lines) initiates media capture. Represents the pose of the electronic device in the first time after. In some embodiments, the second set of one or more shapes is displayed in the second position. In some embodiments, the media is present when there is a difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the first time after the start of the capture of the media. A second position on the display (eg, an offset position) that is different from the first position on the capture user interface.
いくつかの実施形態では、第1の1組の1つ以上の形状(例えば、2670b)は、第1の色(例えば、第1の色)を含む。いくつかの実施形態では、第2の1組の1つ以上の(例えば、2670c)は、第1の色とは異なる第2の色(例えば、第2の色)を含む。いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の1組の1つ以上の形状とは異なる視覚外観(例えば、より太い、より高い不透明度、異なる勾配、よりぼけた、又は画像に適用され得る別のタイプの視覚効果)を有する。キャプチャを開始したときの電子デバイスのポーズを反映する1組の形状及びキャプチャを開始した後の電子デバイスのポーズを反映する別の1組の形状を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, one or more shapes in the first set (eg, 2670b) include a first color (eg, a first color). In some embodiments, one or more of the second set (eg, 2670c) comprises a second color (eg, a second color) that is different from the first color. In some embodiments, one or more shapes in the first set have a different visual appearance than one or more shapes in the second set (eg, thicker, higher opacity, different gradients, etc.) It has another type of visual effect that is more blurry or can be applied to the image). By displaying visual guidance that includes a set of shapes that reflect the pose of the electronic device when the capture is started and another set of shapes that reflect the pose of the electronic device after the start of capture. Relevant changes in the pose of the electronic device can be quickly identified, which requires the user to recapture the image in order to capture the available photo due to the constant movement of the device. The user can quickly correct the pose to improve media capture (as it may not be). By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の1組の1つ以上の形状は、第2の色を含まず、及び/又は第2の1組の1つ以上の形状は、第1の色を含まない。キャプチャを開始したときの電子デバイスのポーズを反映する色及びキャプチャを開始した後の電子デバイスのポーズを反映する異なる色を含む視覚ガイダンスを表示することにより、ユーザは、電子デバイスのポーズの関係的な変化を迅速に識別することができ、これにより、(ユーザは、デバイスの一定の移動に起因して使用可能な写真をキャプチャするために、画像を再キャプチャする必要がない場合があるように)ユーザは、メディアキャプチャを改善するためにポーズを迅速に補正することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, one or more shapes in the first set do not contain a second color, and / or one or more shapes in a second set contain a first color. No. By displaying visual guidance that includes a color that reflects the pose of the electronic device when the capture is started and a different color that reflects the pose of the electronic device after the capture is started, the user can relate the pose of the electronic device. Changes can be quickly identified (so that the user may not need to recapture the image in order to capture the available photo due to constant movement of the device). ) The user can quickly correct the pose to improve the media capture. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化(例えば、図26K〜図26O)を検出する(2812)。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、電子デバイスは、メディアカメラユーザインタフェース上の第2の位置とは異なるメディアカメラユーザインタフェース上の第3の位置(例えば、図26L〜図260の2670c)に第2の1組の1つ以上の形状(又は第1の1組の1つ以上の形状)を表示する(2814)。いくつかの実施形態では、第1の1組の1つ以上の形状の表示は、カメラユーザインタフェース上の同一の位置で維持される。1つ以上の形状の視覚特性を更新することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにどのように関連するかを迅速に識別することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at a second time after initiating the capture, the electronic device detects a change in the pose of the electronic device (eg, FIGS. 26K-26O) (2812). In some embodiments, in response to detecting a change in the pose of the electronic device, the electronic device is placed in a third position on the media camera user interface that is different from the second position on the media camera user interface. For example, one or more shapes of the second set (or one or more shapes of the first set) are displayed in FIGS. 26L to 2670c of FIG. 260 (2814). In some embodiments, the display of one or more shapes in the first set is maintained in the same position on the camera user interface. By updating the visual properties of one or more shapes, the user can quickly identify how the current pose of the electronic device relates to the original pose of the electronic device. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるという判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つをやめ(例えば、図26Oの2670b)、第1の1組の1つ以上の形状の第1の位置と、第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないという判定に従って、電子デバイスは、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状の表示を維持する(例えば、図26Nの2670b〜c)。いくつかの実施形態では、キャプチャを開始した後の第1の時間における電子デバイスのポーズが、メディアのキャプチャが開始されたときに電子デバイスのポーズに対して所定の近接性内にあるとき、第1の1組の1つ以上の形状又は第2の1組の1つ以上の形状のうちの少なくとも1つは、表示を停止される。所定の条件が満たされているときにのみ、1組の1つ以上の形状のうちの少なくとも1つの表示を自動的に停止することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a change in pose of the electronic device, a first position of one or more shapes in a first set and one or more in a second set. According to the determination that the difference between the shape and the third position is within the first threshold difference, the electronic device is one or more of the first set of shapes or one or more of the second set. (Eg, 2670b in FIG. 26O), the first position of one or more shapes in the first set and the first position of one or more shapes in the second set. According to the determination that the difference from the third position is not within the first threshold difference, the electronic device is of one or more shapes of the first set or one or more shapes of the second set. The display is maintained (eg, 2670b-c in FIG. 26N). In some embodiments, when the pose of the electronic device at the first time after the start of capture is within a predetermined proximity to the pose of the electronic device when the capture of the media is started, the first. At least one of a set of one or more shapes or a second set of one or more shapes is stopped displaying. By automatically stopping the display of at least one of a set of one or more shapes only when certain conditions are met, the user can see that the current pose of the electronic device is the source of the electronic device. You can quickly recognize that you are in the pose of. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、キャプチャを開始した後の第2の時間において、電子デバイスは、電子デバイスのポーズの変化を検出する。いくつかの実施形態では、電子デバイスのポーズの変化を検出したことに応答して、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にあるという判定に従って、電子デバイスは、触知出力(例えば、2620a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を生成し、メディアのキャプチャが開始されたときの電子デバイスのポーズと、メディアのキャプチャを開始した後の第2の時間における電子デバイスのポーズとの間の差が、第2の閾値差内にないという判定に従って、電子デバイスは、触知出力を生成するのをやめる。所定の条件が満たされているときにのみ、触知出力を提供することにより、ユーザは、電子デバイスの現在のポーズが電子デバイスの元のポーズにあることを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a second time after initiating the capture, the electronic device detects a change in the pose of the electronic device. In some embodiments, in response to detecting a change in the pose of the electronic device, the pose of the electronic device when the media capture is initiated and the second time after the media capture is initiated. The electronic device is generated by a tactile output (eg, 2620a) (eg, one or more tactile output generators) according to the determination that the difference from the pose of the electronic device is within a second threshold difference. The difference between the pause of the electronic device when the media capture is started and the electronic device pose at the second time after the media capture is started, producing a tactile (eg, vibration) output). However, according to the determination that it is not within the second threshold difference, the electronic device stops producing the tactile output. By providing the tactile output only when certain conditions are met, the user can quickly recognize that the current pose of the electronic device is in the original pose of the electronic device. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1組のガイダンス基準が満たされているという判定に従って、及びメディアをキャプチャする間に、電子デバイスは、電子デバイスを安定化させる(例えば、電子デバイスの現在のポーズを維持する)ために、要求に対応する表現(例えば、命令2670a)を表示する(例えば、1組の特性又はシンボル(例えば、「一時停止」)を表示する)。電子デバイスを安定化させる命令を含む視覚ガイダンスを提供することにより、ユーザは、デバイスがメディアをキャプチャしていることを迅速に認識できる視覚的フィードバックを提供し、かつデバイスが一時停止しなければならないメディアのキャプチャを最適化するために、ユーザは、画像の最大数が使用可能であり、容易に組み合わされて使用可能な又は改善されたマージ写真を形成することができるように、複数の画像をキャプチャするときと同一のフレーミングを維持することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, the electronic device stabilizes the electronic device (eg, maintains the current pose of the electronic device, according to the determination that a set of guidance criteria is met, and while capturing the media. To display the representation corresponding to the request (eg,
いくつかの実施形態では、1組のガイダンス基準が満たされていないという判定に従って、電子デバイスは、表示デバイスを介して、差の視覚インジケーション(例えば、視覚ガイダンス2670)を表示するのをやめる。 In some embodiments, according to the determination that a set of guidance criteria is not met, the electronic device ceases to display the difference visual indication (eg, visual guidance 2670) through the display device.
いくつかの実施形態では、視覚インジケーションは、第1の時間で表示される。いくつかの実施形態では、第1の時間とは異なる第3の時間において、電子デバイスは、メディアのキャプチャの終了を検出する。いくつかの実施形態では、メディアのキャプチャの終了を検出したことに応答して、電子デバイスは、表示デバイスを介して、視覚インジケーション(例えば、視覚ガイダンス2670)を表示するのをやめる(例えば、図26Q〜図26R)。キャプチャ持続時間が終了したときにガイダンスの表示を停止することにより、ユーザは、メディアのキャプチャが終了し、かつメディアのキャプチャを改善するために、電子デバイスのポーズを維持する必要がもはやないことを、迅速に認識することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the visual indication is displayed at the first time. In some embodiments, the electronic device detects the end of media capture at a third time, which is different from the first time. In some embodiments, in response to detecting the end of media capture, the electronic device ceases to display the visual indication (eg, visual guidance 2670) through the display device (eg, visual guidance 2670). 26Q-26R). By stopping the display of guidance when the capture duration ends, the user no longer needs to keep the electronic device paused to finish capturing the media and improve the capture of the media. , Can be recognized quickly. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
方法2800に関して上述された処理(例えば、図28A〜図28B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、3000、3200、3400、3600、及び3800は、方法2800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法2700は、任意選択的に、方法2800に関連して上述した様々な技術を使用して、低光モードで画像をキャプチャしている間に、視覚ガイダンスを表示することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 2800 (eg, FIGS. 28A-28B) are also applicable to the methods described above in a similar manner. For example,
図29A〜図29Pは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図30A〜図30Cにおける処理を含む、以下で説明される処理を例示するために使用される。 29A-29P show exemplary user interfaces for managing controlled media captures using electronic devices with multiple cameras according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 30A-30C.
図29A〜図29Jは、1つ以上のカメラの視野内の1つ以上のオブジェクトに特定の距離で焦点を合わせる間にライブプレビュー630を表示するためのユーザインタフェースを示す。理解を向上させるために、図29A〜図29Jは、電子デバイス600の花2986と木2988との間の空間的関係を示すシーン2980のグラフィック表現を含む。例えば、図29Aにおいて、シーン2980は、デバイス600の側面プロファイルを含み、ここで、デバイス600の裏側は、木2988の前に位置する花2986を含む環境に面している。デバイス600の裏側は、広い視野を有するカメラと、狭い視野を有するカメラとを含み、これらは、以下の図29A〜図29Pを説明するとき、総称して「後カメラ」と呼ばれる。デバイス600が1×ズームレベルでメディアをキャプチャするように構成されるため(例えば、選択されている1×ズームアフォーダンス2622bによって示されるように)、デバイス600の裏側の1組のカメラで(例えば、前カメラとは対照的に)、デバイス600は、広い視野を有するカメラ及び狭い視野を有するカメラを使用してメディアをキャプチャするように現在構成されている。それにより、花2986及び/又は木2988のうちの少なくとも一部分は、広いカメラ(WFOV)の視野内にあり、花2986及び/又は木2988のうちの少なくとも一部分は、狭いカメラ(NFOV)の視野内にある。図29Aにおいて、デバイス600は、花2986から距離2982a内及び木2988から距離2984a内である。
29A-29J show a user interface for displaying a
図29Aに示すように、デバイス600は、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を含むカメラユーザインタフェースを表示する。ライブプレビュー630は、後カメラ(FOV)の視野(例えば、WFOV及びNFOV)内で検出された画像に基づく。ライブプレビュー630は、木2988の前に位置する花2986を示す表現を含む(シーン2980に関連して上述したように)。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。
As shown in FIG. 29A,
図29Aに示すように、図29Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。インジケータ領域602及びコントロール領域606にライブプレビュー630の部分を表示するために、デバイス600は、WFOV内にあるシーン2980の部分(例えば、花2986及び木2988)を使用する。更には、図29Aのカメラユーザインタフェースはまた、カメラディスプレイ領域604を含み、これは、ライブプレビュー630上に重ねられ、領域602及び606とは対照的に、インジケータ又はコントロールと実質的に重ならない。カメラディスプレイ領域604の部分を表示するために、デバイス600は、NFOV内にあるシーン2980の部分を使用する。
As shown in FIG. 29A, the camera user interface of FIG. 29A includes an
図29Aに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移では、視覚境界部608は、インジケータ領域602とカメラディスプレイ領域604との間に表示される。インジケータ領域602は、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b〜602fはまた、インジケータ領域602に含まれる。
As shown in FIG. 29A, the
図29Aに示すように、コントロール領域606はまた、灰色オーバーレイを含み、視覚境界部608は、コントロール領域606とカメラディスプレイ領域604との間にこれらの領域の間の色の遷移時に表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で示された「写真」モード)を示し、ユーザがカメラモードを変更することを可能にする。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。
As shown in FIG. 29A, the
図29B〜図29Eは、別のオブジェクト(例えば、木2988)よりもFOV内で近いオブジェクト(例えば、花2986)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Aでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された花2986の一部分に対応する場所)でのタップジェスチャ2950aを検出する。
29B-29E show a user interface that displays a
図29Bに示すように、タップジェスチャ2950aを検出したことに応答して、デバイス600は、タップジェスチャ2950aに対応する場所で、花2986の一部分の周りに焦点インジケータ2936aを表示する。更に、タップジェスチャ2950aを検出したことに応答して、デバイス600は、(例えば、図14N〜図14Oの入力1495G及び図14P〜図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが焦点インジケータ2936aに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、後カメラが現在、花2986に焦点を合わせているため、図29Aにおいて以前に表示されたものよりもぼかしが少ない(例えば、太線で示される)花2986を表示する。更なる理解のために、図29Bにおいて、シーン2980はまた、デバイス600が花2986の部分に現在焦点を合わせていることを示すための現在の焦点インジケータボックス2990を含む。図29Bでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。
As shown in FIG. 29B, in response to detecting the
図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、インジケータ領域602及びコントロール領域606(「外側部分」)内におけるライブプレビュー630の部分の視覚プロミネンスを減少させ、一方、カメラディスプレイ領域604(「内側部分」)内に表示されたライブプレビュー630の部分の視覚プロミネンスを維持する。ここで、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離2982bが距離の第1の範囲内にあるため、外側部分のプロミネンスを減少させる。具体的には、デバイス600は、外側部分が、それらの視覚プロミネンスを減少させるために、より暗く表示されるように、領域602及び606の不透明度を増加させる。いくつかの実施形態では、デバイス600は、輝度、色彩度、及び/又はコントラストを減少させることによって、外側部分の視覚プロミネンスを減少させる。いくつかの実施形態では、視覚プロミネンスを減少させることは、図29Aに表示された外側部分の状態から図29B(又は視覚プロミネンスが減少している任意の他の図)に表示された外側部分の状態へと外側部分を徐々に退色させることを含む。いくつかの実施形態では、視覚プロミネンスを減少させることは、領域602及び/又は606の不透明度を徐々に減少させることを含む。
As shown in FIG. 29C, in response to detecting a change in the distance between the
図29Cに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、ライブプレビュー630を更新する。ライブプレビュー630を更新するときに、デバイス600は、WFOVに基づいて外側部分を更新し(例えば、広いカメラの視野を使用して、上述のように、領域602及び606内のライブプレビュー630の部分を表示するため)、NFOVに基づいて外側部分を更新する(例えば、狭いカメラの視野を使用して、上述のように、カメラディスプレイ領域604内のライブプレビュー630の部分を表示するため)。特に、サイズ(例えば、幅)が異なる視野を有するカメラでライブプレビュー630の異なる領域を更新することにより、デバイス600に、デバイス600が花2986から距離2982bだけ離れている(例えば、又は距離の第1の範囲内である)場合、視覚境界部608に沿った視覚的引裂きを有するライブプレビュー630を表示させる。すなわち、デバイス600は、デバイス600が花2986から距離2982bだけ離れている場合、内側部分に対してシフトされているように外側部分を表示する。図29Cに示すように、コントロール領域606内に表示された花2986の茎部は、カメラディスプレイ領域604内の花2986の茎部の右にシフトされる。更には、インジケータ領域602内に表示された花2986の花弁のうちのいくつかは、カメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされる。図29Cにおいて、デバイス600は、外側部分の視覚プロミネンスを減少させ、これは、外側領域に対するカメラディスプレイ領域の相対的視覚プロミネンスを増加させる(例えば、視覚的引裂きを顕著に低下させる)。
As shown in FIG. 29C, the
図29Aに戻ると、デバイス600が花2986から2982bよりも大きい特定の距離だけ離れているとき、デバイス600が1×ズームレベルでメディアをキャプチャするように構成されている間に、視覚的引裂きが実質的にない(例えば、まったく若しくは小さい)又は視覚的引裂きの機会がより少ないため、デバイス600は、外側部分の視覚プロミネンスを減少させない。図29Cでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに接近して動いている。
Returning to FIG. 29A, when the
図29Dに示すように、デバイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、デバイス600と花2986との間の距離2982cが距離の第2の範囲内にあるため、外側部分の視覚プロミネンスを更に減少させ、一方、内側部分の視覚プロミネンスを維持する。ここで、距離の第2の範囲は、図29Cに関連して述べられた距離の第1の範囲よりも小さい。図29Dにおいて、デバイス600は、外側部分を不明瞭にする(例えば、退色させる、又はブラックアウトする)ことによって、外側部分の視覚プロミネンスを減少させる。具体的には、デバイス600は、外側部分が区別可能ではないようにインジケータ領域602及びコントロール領域606の不透明度レベルを増加させており、領域602及び606内に表示されたライブプレビュー630の部分は、黒であるように見え、図29Cに以前に表示されたライブプレビュー630のいくらかの部分(例えば、花2986の茎部)の表示が停止されている。いくつかの実施形態では、デバイス600が花2986から距離2982cだけ離れている(例えば、又は距離の第2の範囲内である)場合、デバイス600は、実際の視覚的引裂き又は視覚的引裂きの可能性が極端であると判定した。したがって、いくつかの実施形態では、デバイス600は、デバイス600が視覚的引裂き又は視覚的引裂きの変化が極端であると判定したときに、距離に基づいて外側部分の表示を停止する。図29Dでは、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び花2986は、互いに更に離れて動いている(例えば、図29Aに示すように、距離2982aに戻る)。
As shown in FIG. 29D, in response to detecting a change in the distance between the
図29Eに示すように、バイス600と花2986との距離の変化を検出したことに応答して、デバイス600は、花2986から距離2982aだけ離れているため、外側部分の視覚プロミネンスを増加させる。換言すれば、図29Eにおいて、デバイス600は、図29Bに関連して論じられるように、距離2982aが距離の第1又は第2の範囲内でないため、図29B及び図29Cに表示された、視覚プロミネンスを有する外側部分を表示するのをやめる。特に、図29Fでは、デバイス600は、実質的に視覚的引裂きがないライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、距離2982aが、実際の視覚的引裂きがないか又は視覚的引裂きの機会がほとんどない距離の第3の範囲内であると判定している。いくつかの実施形態では、デバイス600は、距離2982aが、距離の第3の範囲内であると判定し、視覚プロミネンスを最大視覚プロミネンスまで増加させる。
As shown in FIG. 29E, in response to detecting a change in the distance between the
図29E〜図29Iは、別のオブジェクト(例えば、花2986)よりもデバイス600からもっと遠く離れているオブジェクト(例えば、木2988)に焦点を当てている間に、ライブプレビュー630を表示するユーザインタフェースを示す。図29Eでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された木2988の一部分に対応する場所)でのタップジェスチャ2950eを検出する。
29E-29I are user interfaces that display a
図29Fに示すように、タップジェスチャ2950eを検出したことに応答して、デバイス600は、タップジェスチャ2950eに対応するカメラディスプレイ領域604上の場所で、木2988の一部分の周りに焦点インジケータ2936bを表示する。更に、タップジェスチャ2950eを検出したことに応答して、デバイス600は、(図14N〜図14Oの入力1495G及び図14P〜図14Qの入力部分1495H1に関連して上述したものと同様の技術を使用して、)後カメラが花2986の部分の焦点から、焦点インジケータ2936bに取り囲まれた木2988の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が後カメラの焦点設定を変更した後、デバイス600は、図29Eにおいて以前に表示されたものよりも、ぼかしが少ない(例えば、太線で示される)木2988及びぼかしが多い(例えば、点線で示される)花を表示する。図29Fでは、シーン2980は、デバイス600が木2988の一部分に現在焦点が合っているため、木2988の周りに現在の焦点インジケータボックス2990を示す。図29Fでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。
As shown in FIG. 29F, in response to detecting the
図29Gに示すように、デバイス600と木2988との間の距離の変化を検出したことに応答して、デバイス600は、デバイス600と木2988との間の距離2984bが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982bとは対照的に)、外側部分の視覚プロミネンスを減少させるのをやめる。換言すれば、デバイス600が、距離2984b(及び距離2982bではない)が閾値距離の第1の範囲内であることに基づいて判定を行うことにより、デバイス600は、外側部分の視覚プロミネンスを変更しない。更には、視覚プロミネンスを変更しないことによって、領域602及び606が暗色化されていないため、視覚境界部608での視覚的引裂きは、図29Bよりも図29Gにおいてより明らかである。具体的には、デバイス600は、ライブプレビュー630の任意の部分の視覚プロミネンスを減少させることなく、カメラディスプレイ領域604内の花2986の茎部の右にシフトされたコントロール領域606の花2986の茎部、及びカメラディスプレイ領域604内の花2986の同じ花弁の右にシフトされたインジケータ領域602内に表示された花2986の花弁のうちのいくつかを表示する。図29Gでは、デバイス600は、デバイス600と木2988(例えば、焦点が合っているオブジェクト)との間の距離の変化を検出し、ここで、デバイス600及び木2988は、互いに接近して動いている。
As shown in FIG. 29G, in response to detecting a change in the distance between the
図29Hに示すように、デバイス600と木2988との間の距離の変化を検出したことに応答して、デバイス600は、デバイス600と木2988との間の距離2984cが、第1の範囲の距離内にないため(例えば、図29Cに関連して、距離2982cとは対照的に)、外側部分の視覚プロミネンスを減少させるのをやめる。デバイス600がライブプレビュー630の任意の部分の視覚プロミネンスを減少させていないため、デバイス600は、外側部分が内側部分の右に更にシフトされる図29Gよりも、視覚境界部608で視覚的引裂きをより多く表示する。図29Hでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ2950hを検出する。
As shown in FIG. 29H, in response to detecting a change in the distance between the
図29Iに示すように、タップジェスチャ2950hを検出したことに応答して、デバイス600は、図29Hに表示されるように視覚境界部608での視覚的引裂きを含む、ライブプレビュー630の現在の状態に基づいて、メディアをキャプチャする(図8Q〜図8Rに関連して論じられたのと同様の技術を使用して)。更に、タップジェスチャ2950hを検出したことに応答して、デバイス600は、新たにキャプチャされたメディアの表現で更新されたメディアコレクション624を更新する。図29Iでは、デバイス600は、インジケータ領域602に対応する場所でのタップジェスチャ2950iを検出する。
As shown in FIG. 29I, in response to detecting the
図29Iに示すように、タップジェスチャ2950iを検出したことに応答して、デバイス600は、(例えば、ジェスチャ2950b及び2950fとは対照的に)タップジェスチャ2950iがカメラディスプレイ領域604の外側の場所に向けられているため、焦点設定を変更又は焦点インジケータを表示するのをやめる。図29Iにおいて、タップジェスチャ2950iを検出したことに応答して、デバイス600は、カメラユーザインタフェースを維持し、電子デバイスは、カメラユーザインタフェースの部分を更新するのをやめる(例えば、カメラユーザインタフェースは同じままである)。図29Iでは、デバイス600は、カメラディスプレイ領域604における場所に対応する場所(例えば、カメラディスプレイ領域604内に表示された花2986の一部分に対応する場所)でのタップジェスチャ2950jを検出する。
As shown in FIG. 29I, in response to detecting the
図29Kに示すように、タップジェスチャ2950jを検出したことに応答して、デバイス600は、タップジェスチャ2950jに対応するカメラディスプレイ領域604上の場所で、花2986の一部分の周りに焦点インジケータ2936cを表示する。更に、タップジェスチャ2950jを検出したことに応答して、デバイス600は、(図29A〜図29Bにおいて上述したものと同様の技術を使用して、)後カメラが木2988の部分の焦点から、焦点インジケータ2936cに取り囲まれた花2986の部分に焦点を合わせるように、焦点設定を変更する。デバイス600が木2988の一部分の代わりに、花2986の一部分に焦点を合わせているため、デバイス600は、デバイス600と花2986(例えば、焦点が合っているオブジェクト)との間の距離が、距離の第3の範囲内にあるため、外側部分の視覚プロミネンスを減少させる。ここで、デバイス600が焦点を当てていたオブジェクトに切り替えたため、どの距離(例えば、距離2982c又は距離2984c)で外側部分の視覚プロミネンスを減少させるか(又はあるいは、増加させる)かどうかをトリガする判定を変更する。それにより、デバイス600は、デバイス600と花2986との間の距離2982c(又はデバイス600と木2988との間の距離2984c)が、距離の第3の範囲内であるという判定を行い、その判定に従って、図29Cに関連して上述したように、外側部分の視覚プロミネンスを減少させる(例えば、外側部分の表示を停止する)。理解を助けるために、図29Kでは、シーン2980は、デバイス600が花2986の一部分に現在焦点が合っているため、花2986の周りに現在の焦点インジケータボックス2990を示す。
As shown in FIG. 29K, in response to detecting the
図29Lに戻る前に、図29A〜図29Kは、特定のシナリオに基づいて視覚プロミネンスを増加又は減少させるかどうかに基づく技術を説明する。いくつかの実施形態では、図29A〜図29Kの説明は、反転され(例えば、図29K〜図29A)、スキップされ、再順序付けされてもよい(例えば、これにより、例えば、デバイス600は、上記の説明において視覚プロミネンスを減少させる視覚プロミネンスを増加させることができ、又は逆もまた同様である)。更には、図29A〜図29Kにおいて、デバイス600は、デバイス600と、焦点が合っているオブジェクトとの間の距離が閾値内又は閾値の外側であるかどうかに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、他の基準に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、オブジェクトに焦点が合っているかどうかに加えて、又はその代わりに、それぞれのオブジェクトとの所定の関係状態(例えば、オブジェクトが最も近い又は最も遠いオブジェクトであるかどうか)に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600は、デバイス600を使用して、ライブプレビュー630を表示しているタイプのカメラに基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600、デバイス600は、視覚的引裂きが1つ以上の環境条件(例えば、デバイス600とオブジェクトとの間の距離、照明条件など)に基づいて(例えば、視覚境界部608で)発生する可能性の判定に基づいて、ライブプレビュー630の一部分の視覚プロミネンスを変更する(又は変更するのをやめる)。いくつかの実施形態では、デバイス600が同じサイズ視野(単数又は複数)を有する1つ以上のカメラ(単数又は複数)のみを使用する(例えば、望遠写真カメラのみを使用する)場合、デバイス600は、カメラの視野(単数又は複数)内のオブジェクトとデバイス600との間の距離に関係なく、ライブプレビュー630の一部分の視覚プロミネンスをやめる。図29Kでは、デバイス600は、メディアコレクション624に対応する場所でのタップジェスチャ2950kを検出する。
Before returning to FIG. 29L, FIGS. 29A-29K describe techniques based on whether visual prominence is increased or decreased based on a particular scenario. In some embodiments, the description of FIGS. 29A-29K may be reversed (eg, FIGS. 29K-29A), skipped and reordered (eg, thereby, for example, the
図29L〜図29Pは、デバイス600がキャプチャし、かつ視覚的引裂きが発生したが、メディアを編集するための追加のコンテンツ(例えば、図29Hの領域602及び606内に表示されたライブプレビュー630の部分)を使用するために利用可能であることを示すメディアを編集するユーザインタフェースを示す。図29Lに示すように、タップジェスチャ2950kを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を、写真ビューワインタフェースの表示に置き換える。メディア閲覧インタフェースは、表現2930を含み、これは、図29Hのタップジェスチャ2950hを検出したことに応答して、キャプチャされたメディアの表現である。更には、メディアビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを伝送するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。図29Lでは、デバイス600は、編集アフォーダンス644aに対応する場所でのタップジェスチャ2950lを検出する。
29L-29P show
図29Mに示すように、タップジェスチャ2950lを検出したことに応答して、デバイス600は、メディアビューワユーザインタフェースを、メディア編集ユーザインタフェースに置き換える(図22A〜図22B及び図24Aのものと同様の技術を使用して)。メディア編集ユーザインタフェースは、表現2930及び画像コンテンツ編集アフォーダンス2210dを含む。図29Mでは、デバイス600は、画像コンテンツ編集アフォーダンス2210dに対応する場所でのタップジェスチャ2950mを検出する。
As shown in FIG. 29M, in response to detecting the tap gesture 2950l, the
図29Nに示すように、タップジェスチャ2950mを検出したことに応答して、デバイス600は、デバイス600の上部付近にアスペクト比コントロールアフォーダンス626cを表示する。図29Nでは、デバイス600は、アスペクト比コントロールアフォーダンス626cに対応する場所でのタップジェスチャ2950nを(24J〜24Oに記載されるものと同様のものを使用して)検出する。
As shown in FIG. 29N, in response to detecting the
図29Oに示すように、タップジェスチャ2950nを検出したことに応答して、デバイス600は、表現2930上に視覚境界部608を表示する。図29Oでは、デバイス600は、表現2930上のピンチングジェスチャ2950oを検出する。
As shown in FIG. 29O, in response to detecting the
図29Pに示すように、ピンチングジェスチャ2950oを検出したことに応答して、デバイス600は、ライブプレビュー630のインジケータ領域602及びコントロール領域606内に表示された、図29Hにおいてキャプチャされたメディアの部分を表示するように、表現2930を更新する。ここで、図29Hのライブプレビュー630とは対照的に、デバイス600は、図29Pにおいて表現2930に実質的に視覚的引裂きがないように、領域602、604、606内のライブプレビュー630の部分を一緒にステッチした。いくつかの実施形態では、デバイス600は、ブラックアウトしている外側部分をキャプチャし(例えば、29D)、外側部分を内側部分にステッチして、視覚的引裂きがほとんど又はまったくないメディアの表現(領域602、604、606内のライブプレビュー630)を表示することができる。いくつかの実施形態では、デバイス600は、要求(例えば、ピンチングジェスチャ2950o)が受信されない限り、ステッチされた表現を表示するのをやめ、代わりに、ステッチされていないキャプチャされたメディアの表現を表示する(例えば、図29Lの表現2930、29Hのカメラディスプレイ領域604内に表示されたライブプレビュー630の部分の表現によって示されるように)。
As shown in FIG. 29P, in response to detecting the pinching gesture 2950o, the
図30A〜図30Cは、いくつかの実施形態による複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための方法を示すフロー図である。方法3000は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
30A-30C are flow diagrams illustrating a method for managing controlled media capture using an electronic device with a plurality of cameras according to some embodiments.
後述するように、方法3000は、複数のカメラを備える電子デバイスを使用して制御されたメディアのキャプチャを管理するための直感的方法を提供する。この方法は、複数のカメラを有する電子デバイスを使用してメディアのキャプチャを管理する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアをキャプチャすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの異なる側(例えば、前カメラ、後カメラ)の1つ以上のカメラ(例えば、第1のカメラ及び第2のカメラ(例えば、第2のカメラは第1のカメラよりも広い視野を有する))(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェース、そのカメラユーザインタフェースを表示する(3002)。カメラユーザは、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)であって、1つ以上のカメラ(例えば、カメラに視認可能である開放観測可能エリア、カメラレンズから所与の距離の画像の水平(又は垂直又は対角線)長さ)(例えば、第1のカメラ)の視野の第1の部分(例えば、第1のカメラの視野の第1の部分)の第1の表現(例えば、表現オーバータイム、カメラからのデータのライブプレビューフィード)を含む第1の領域と(3004)、第1の領域の外側にあり、第1の領域と視覚的に区別される第2の領域(例えば、602及び/又は606)(例えば、カメラコントロール領域)と、を含む。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The electronic device (eg, 600) is a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on different sides of the electronic device (eg, a front camera, a rear camera). It includes a first camera and a second camera (eg, the second camera has a wider field of view than the first camera) (eg, dual cameras, triple cameras, quad cameras, etc.)). The electronic device displays the camera user interface and the camera user interface via the display device (3002). A camera user is in a first area (eg, 604) (eg, a camera display area) and is a given distance from one or more cameras (eg, an open observable area visible to the camera, a camera lens). The first representation (eg, the first portion of the field of view of the first camera) of the horizontal (or vertical or diagonal) length of the image) (eg, the first camera). , Representation overtime, live preview feed of data from the camera) and (3004), a second area outside the first area that is visually distinguishable from the first area (3004). For example, 602 and / or 606) (eg, camera control area). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第1の距離(例えば、2982b)であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Cの602)で表示する(3008)ことを含む(3006)。所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更には、これは、デバイスがキャプチャされた画像を補正するために実行するコンピュータ集約的なステッチ動作をデバイスが実行する可能性を低減し、したがって、これは、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The second region is an object of each of the first objects in the field of view of one or more cameras (eg, 2896) (eg, a detected observable object, an in-focus object, of one or more cameras. According to the determination that each of the first set of criteria is met, including the criteria that the object in the focal plane) is met at a first distance (eg, 2882b) from one or more cameras. The device comprises displaying, within the second region, a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29C) (30086). By choosing to display a portion of the field of view within a second area based on whether certain conditions are met or not, the electronic device can be viewed by one or more cameras of the electronic device. To reduce the prominence of the second area, and / or one of the electronic devices, when it is determined that it may cause a visual tear when rendered on the camera user interface of the electronic device. A user optimized to increase the prominence of the second area when it is determined that the above camera field of view is unlikely to cause a visual tear when rendered on the camera user interface. An interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Furthermore, this reduces the likelihood that the device will perform computer-intensive stitching actions that the device will perform to correct the captured image, thus allowing the user to perform the device faster and more efficiently. Reduce power consumption and improve device battery life by making it available for use. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
第2の領域は、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第2の距離(例えば、2982a)であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観(例えば、図29Bの602)で表示するのをやめる(3010)ことを含む。所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 The second region is each of the first objects in the field of view of one or more cameras (eg, detected observable objects, in-focus objects, objects in the focal plane of one or more cameras. ) Is a second distance from one or more cameras (eg, 2882a), the electronic device is second according to the determination that each of the second set of criteria is met, including the criteria being met. Includes (3010) stopping displaying a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29B) within the region of. By choosing to display a portion of the field of view within a second area based on whether certain conditions are met or not, the electronic device can be viewed by one or more cameras of the electronic device. To reduce the prominence of the second area, and / or one of the electronic devices, when it is determined that it may cause a visual tear when rendered on the camera user interface of the electronic device. A user optimized to increase the prominence of the second area when it is determined that the above camera field of view is unlikely to cause a visual tear when rendered on the camera user interface. An interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2の領域は、複数のカメラ設定(例えば、620)(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を制御する(例えば、カメラモードを変更する)(例えば、写真を撮影する)(例えば、異なるカメラ(例えば、前面から背面)をアクティブ化する)複数のコントロールアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second area controls multiple camera settings (eg, 620) (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) (eg, camera mode). Change) (eg, take a picture) (eg, activate different cameras (eg, front to back)) Multiple control affordances (eg, selectable user interface objects) (eg, proactive control affordance, Includes shutter affordance, camera selection affordance, multiple camera mode affordance).
いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される(3012)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子デバイスは、電子デバイスの焦点設定を調整する第1の要求(例えば、2950a)を受信する(3014)。いくつかの実施形態では、電子デバイスの焦点設定を調整する第1の要求(例えば、第1の領域に向けられたジェスチャ(例えば、タップ))を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野内(例えば、2936a)の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する(3016)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に(3018)、及び1つ以上のカメラの視野内の第2のそれぞれのオブジェクト(例えば、2988)(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第3の距離(例えば、2984b)(例えば、第1のそれぞれのオブジェクトから更に離れた1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第3のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる(例えば、29Gの602)(3020)。いくつかの実施形態では、1つ以上のカメラの視野内の第2のそれぞれのオブジェクトであると満たされる基準を含む、1組の第3のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(又は表示を維持する)。電子デバイスの1つ以上のカメラの焦点が合っているオブジェクトに関して所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on each of the first objects in the field of view of one or more cameras (3012). In some embodiments, the electronic device has a first requirement to adjust the focus setting of the electronic device while displaying a second portion of the field of view of one or more cameras with a first visual appearance. For example, 2950a) is received (3014). In some embodiments, the electronic device responds to receiving a first request to adjust the focus setting of the electronic device (eg, a gesture directed to a first region (eg, a tap)). Configure the electronic device to focus on each of the second objects in the field of view of one or more cameras (eg, 2936a) (3016). In some embodiments, while the electronic device is configured to focus on each second object within the field of view of one or more cameras (3018), and within the field of view of one or more cameras. Each of the second objects (eg, 2988) (eg, detected observable objects, in-focus objects, objects in the focal plane of one or more cameras) from one or more cameras. Each set of third criteria is met, including criteria that are met as a distance of 3 (eg, 2984b) (eg, a distance from one or more cameras further away from each of the first objects). According to the determination, the electronic device ceases to display the second portion of the field of view of one or more cameras in the second region with the first visual appearance (eg, 29G 602) (eg, 29G 602). 3020). In some embodiments, the electron is subject to a determination that each of the set of third criteria is not met, including criteria that are met as being each of the second objects in the field of view of one or more cameras. The device displays (or maintains) a second portion of the field of view of one or more cameras in a second area with a first visual appearance. By choosing to display a portion of the field of view within a second area based on when certain conditions are met or not met for the focused object of one or more cameras in the electronic device. A second area, when the electronic device is determined to have the potential to cause a visual tear when the field of view of one or more cameras of the electronic device is rendered on the camera user interface of the electronic device. To reduce the prominence of, and / or when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. An optimized user interface can be provided to increase the prominence of the two areas. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に(例えば、図29Cの602)、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクト(例えば、2986)と1つ以上のカメラとの間の距離の第1の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の増加)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第1の変化を検出したことに応答して、及び1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離(例えば、2982c)であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる(例えば、図29Dの602)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第4の距離であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を、第1の視覚外観よりも視覚的に目立たない第3の視覚外観で表示する(例えば、表示を維持する)。電子デバイスとオブジェクトとの距離に基づく所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスが増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is one or more cameras while displaying a second portion of the field of view of one or more cameras with a first visual appearance (eg, 602 in FIG. 29C). The first change in the distance between each of the first objects in the field of view (eg, 2896) and one or more cameras (eg, the distance when each of the first objects is in focus). Increase) is detected. In some embodiments, in response to detecting a first change in distance between each first object in the field of view of one or more cameras and one or more cameras, and one. Each set of fourth criteria is met, including a criterion that each first object in the field of view of the above cameras is met at a fourth distance (eg, 2892c) from one or more cameras. According to the determination, the electronic device ceases to display the second portion of the field of view of one or more cameras in the second region with the first visual appearance (eg, 602 in FIG. 29D). In some embodiments, each of the fourth set includes a criterion in which each first object in the field of view of one or more cameras is satisfied to be a fourth distance from the one or more cameras. According to the determination that the criteria are not met, the electronic device makes the second portion of the field of view of one or more cameras within the second region visually less noticeable than the first visual appearance. Display with visual appearance (eg, maintain display). An electronic device is an electronic device by choosing to display a portion of the field of view within a second area based on whether certain conditions based on the distance between the electronic device and the object are met or not met. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device. And / or the prominence of the second area increases when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. As such, an optimized user interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることの一部として、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第3の部分の少なくともいくつかの表示を停止する(例えば、図29Dの602)。1つ以上のカメラの視野の部分の表示を停止することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a second, as part of stopping the display of a second portion of the field of view of one or more cameras in the second region with a first visual appearance. In the area of, at least some of the third part of the field of view of one or more cameras that was not previously displayed in the second area is stopped (eg, 602 in FIG. 29D). By stopping the display of parts of the field of view of one or more cameras, the electronic device causes a visual tear when the field of view of one or more cameras of the electronic device is rendered on the camera user interface of the electronic device. It is possible to provide an optimized user interface so that the prominence of the second area is reduced when it is determined that it can cause it. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめることの一部として、電子デバイスは、第2の領域上に重ねられた(例えば、より詳細ではなく、より少ない色彩度、より低い輝度、及び/又はより小さいコントラストで表示された、より不透明なマスキング/黒化層とともに表示された)(例えば、第2の領域は、第1の領域よりも輝度、コントラスト、及び/又は色彩度がより少なく見える)、第1の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を増加させる(例えば、図29Dの602)。第2の領域上に重ねられた、黒化層の不透明度を増加させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスが減少するように、最適化されたユーザインタフェースを提供することができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a second, as part of stopping the display of a second portion of the field of view of one or more cameras with a first visual appearance within the second region. Overlaid over the area of (eg, displayed with a less opaque masking / blackening layer, displayed with less detail, less color saturation, lower brightness, and / or less contrast) (eg, displayed with less detail) , The second region appears to have less brightness, contrast, and / or color saturation than the first region), the first blackening layer (eg, simulated blackening layer, simulated masking). The opacity of the layer) is increased (eg, 602 in FIG. 29D). By increasing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. An optimized user interface can be provided to reduce the prominence of the second region when it is determined that it may cause a visual tear when rendered in. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成される。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示していない間に、電子デバイスは、電子デバイスの焦点設定を調整する第2の要求(例えば、2950j)を受信する。いくつかの実施形態では、電子デバイスの焦点設定を調整する第2の要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスを構成する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクトに焦点を合わせるように電子デバイスが構成されている間に、及び1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する。いくつかの実施形態では、1つ以上のカメラの視野内の第3のそれぞれのオブジェクト(例えば、検出された観察可能なオブジェクト、焦点が合っているオブジェクト、1つ以上のカメラの焦点面内のオブジェクト)が1つ以上のカメラから第5の距離(例えば、第1のそれぞれのオブジェクトよりも近い1つ以上のカメラからの距離)であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる。焦点が合っているオブジェクトに関して所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is configured to focus on each of the first objects in the field of view of one or more cameras. In some embodiments, the electronic device has a second requirement to adjust the focus setting of the electronic device while not displaying the second portion of the field of view of one or more cameras in the first visual appearance. For example, 2950j) is received. In some embodiments, in response to receiving a second request to adjust the focus setting of the electronic device, the electronic device focuses on each of the third objects in the field of view of one or more cameras. Configure the electronic device to match. In some embodiments, while the electronic device is configured to focus on each third object in the field of view of one or more cameras, and in the field of view of one or more cameras. Each object (eg, a detected observable object, an in-focus object, an object in the focal plane of one or more cameras) is at a fifth distance (eg, first) from one or more cameras. According to the determination that each of the fifth set of criteria is met, the electronic device is in the second Within the area, a second portion of the field of view of one or more cameras is displayed with a first visual appearance. In some embodiments, each third object in the field of view of one or more cameras (eg, a detected observable object, an in-focus object, within the focal plane of one or more cameras). Each of a set of fifths, including a criterion that satisfies the object) being a fifth distance from one or more cameras (eg, a distance from one or more cameras closer than each of the first objects). According to the determination that the criteria of the above are not met, the electronic device stops displaying the second part of the field of view of one or more cameras in the second area with the first visual appearance. By choosing to display a portion of the field of view within the second region based on whether certain conditions are met or not met for the in-focus object, the electronic device is one of the electronic devices. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device, and / Or increase the prominence of the second area when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. Can provide an optimized user interface. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示していない間に、電子デバイスは、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離(例えば、2982c)の第2の変化(例えば、第1のそれぞれのオブジェクトに焦点が合っているときの距離の減少)を検出する。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトと1つ以上のカメラとの間の距離の第2の変化を検出したことに応答して、及び1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離(例えば、2982a)であると満たされる基準を含む、1組の第6のそれぞれの基準が満たされているという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示する(例えば、図29E)。いくつかの実施形態では、1つ以上のカメラの視野内の第1のそれぞれのオブジェクトが1つ以上のカメラから第6の距離であると満たされる基準を含む、1組の第6のそれぞれの基準が満たされていないという判定に従って、電子デバイスは、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示するのをやめる。電子デバイスとオブジェクトとの距離に基づく所定の条件が満たされているか満たされていないときに基づいて第2の領域内に視野の一部分を表示するように選択することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性があると判定されたときに、第2の領域のプロミネンスを減少するように、及び/又は電子デバイスの1つ以上のカメラの視野が、カメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができる。これにより、メディアをキャプチャする際に、視覚的引裂きがユーザにもたらす注意散漫が減り、例えば、ユーザが、画像のフレーミング及びキャプチャにかかる時間を短縮することを可能にする。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device is a first in the field of view of the one or more cameras, while the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance. Detects a second change in distance (eg, 2882c) between an object and one or more cameras (eg, a decrease in distance when each of the first objects is in focus). In some embodiments, in response to detecting a second change in the distance between each of the first objects in the field of view of one or more cameras and one or more cameras, and one. Each set of sixth criteria is met, including a criterion that each first object in the field of view of the above cameras is met at a sixth distance (eg, 2982a) from one or more cameras. According to the determination, the electronic device displays a second portion of the field of view of one or more cameras in the second region with a first visual appearance (eg, FIG. 29E). In some embodiments, each of the sixth set includes a criterion in which each first object in the field of view of one or more cameras is satisfied to be a sixth distance from the one or more cameras. According to the determination that the criteria are not met, the electronic device ceases to display a second portion of the field of view of one or more cameras in the second region with a first visual appearance. An electronic device is an electronic device by choosing to display a portion of the field of view within a second area based on whether certain conditions based on the distance between the electronic device and the object are met or not met. To reduce the prominence of the second area when it is determined that the field of view of one or more cameras can cause a visual tear when rendered on the camera user interface of the electronic device. And / or increase the prominence of the second area when it is determined that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface. As such, an optimized user interface can be provided. This reduces the distraction that visual tearing brings to the user when capturing the media, allowing, for example, the user to reduce the time it takes to frame and capture the image. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域内に、第2の領域内に以前に表示されなかった1つ以上のカメラの視野の第4の部分を表示する(例えば、図29Eの602)。追加のコンテンツをユーザに示すことにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, within the second region, a second portion of the field of view of one or more cameras is included as part of displaying the first visual appearance (eg, the first visual appearance). Less masking / black, where the previous appearance of the second part of the field of view is more visually noticeable (eg, in more detail, with greater color saturation, greater brightness, and / or greater contrast. (Displayed with the chemical layer)), the electronic device displays, within the second region, a fourth portion of the field of view of one or more cameras that was not previously displayed within the second region (eg, displayed). 602 in FIG. 29E. By presenting additional content to the user, the electronic device determines that the field of view of one or more cameras of the electronic device is unlikely to cause a visual tear when rendered on the camera user interface of the electronic device. When done, an optimized user interface can be provided to increase the prominence of the second area, allowing the user to quickly frame the media using the camera user interface. You can see more than one camera's field of view when taking an image to provide additional contextual information that can also capture the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第2の領域内に、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、含み(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より不透明でないマスキング/黒化層とともに表示された)(例えば、第1の視覚外観は、視野の第2の部分の以前の外観がより視覚的に目立つ(例えば、より詳細に、より大きい色彩度、より大きい輝度、及び/又はより大きいコントラストで表示された、より少ないマスキング/黒化層とともに表示された))、電子デバイスは、第2の領域上に重ねられた(例えば、第2の領域は、第1の領域よりも輝度、コントラスト、及び/又は色彩度がより多く見える)、第2の黒化層(例えば、シミュレートされた黒化層、シミュレートされたマスキング層)の不透明度を減少させる(例えば、図29Eの602)。第2の領域上に重ねられた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができ、これは、例えば、ユーザがメディアを生成するために実行する必要があるメディアキャプチャの数を低減する、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, within the second region, a second portion of the field of view of one or more cameras is included as part of displaying the second portion of the field of view in the first visual appearance (eg, in more detail, more). Displayed with a less opaque masking / blackening layer displayed with greater color saturation, greater brightness, and / or greater contrast) (eg, the first visual appearance is before the second portion of the field of view. The appearance of is more visually noticeable (eg, displayed in more detail, with less masking / blackening layers displayed with greater color saturation, greater brightness, and / or greater contrast). The device was overlaid on the second region (eg, the second region appears to have more brightness, contrast, and / or color saturation than the first region), a second blackening layer (eg, the second region). , Simulated blackening layer, simulated masking layer) to reduce opacity (eg, 602 in FIG. 29E). By reducing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. A user interface can be provided that is optimized to increase the prominence of the second area when it is determined that it is unlikely to cause a visual tear when rendered, allowing the user to use the user. However, the camera user interface can be used to quickly frame the media and capture the media, which reduces, for example, the number of media captures the user must perform to generate the media. You can see more than one camera's field of view when taking an image to provide additional contextual information. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の視覚外観は、第1の視覚プロミネンスを含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示することの一部として、電子デバイスは、1つ以上のカメラの視野の第2の部分を第2の視覚外観から第1の視覚外観に徐々に遷移させるアニメーションを表示する(例えば、第1の視覚外観を表示する前に第1の視覚外観及び第2の視覚外観とは異なる、異なる外観で表示される)。いくつかの実施形態では、第2の視覚外観は、第1の視覚プロミネンスとは異なる第2の視覚プロミネンス(例えば、より詳細に/より詳細ではなく、より大きい/より少ない色彩度、より大きい/より低い輝度、及び/又はより大きい/より小さいコントラストで表示された、より不透明でない/より不透明なマスキング/黒化層とともに表示された)を有する。いくつかの実施形態では、第1の視覚外観は、第2の視覚外観とは異なる。第2の領域をある状態の視覚プロミネンスから第2の状態の視覚プロミネンスに徐々に遷移させるアニメーションを表示することにより、ユーザに、視覚プロミネンスの突然の変化が、カメラユーザインタフェースを使用してメディアをフレーム化及びキャプチャするユーザの能力を中断する、又はメディアをフレーム化及びキャプチャする時間を増加させるユーザアクション(例えば、デバイスを揺さぶる又は動かす)を引き起こし得る、注意散漫の可能性を低減させている間に、視覚的引裂きを低減させたユーザインタフェースを提供する。第2の領域上に重ねられた黒化層の不透明度を減少させて視覚を低減することにより、電子デバイスは、電子デバイスの1つ以上のカメラの視野が、電子デバイスのカメラユーザインタフェース上にレンダリングされたときに視覚的引裂きを引き起こす可能性がないと判定されたときに、第2の領域のプロミネンスを増加するように、最適化されたユーザインタフェースを提供することができ、ユーザは、ユーザが、カメラユーザインタフェースを使用してメディアを迅速にフレーム化し、かつメディアをキャプチャすることができる、追加のコンテキスト情報を提供するために画像を撮影するときに、より多くの1つ以上のカメラの視野を見ることができる。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first visual appearance comprises a first visual prominence. In some embodiments, the electronic device is a second portion of the field of view of one or more cameras as part of displaying a second portion of the field of view of one or more cameras with a first visual appearance. To display an animation that gradually transitions from the second visual appearance to the first visual appearance (eg, different, different from the first visual appearance and the second visual appearance before displaying the first visual appearance). Appearance). In some embodiments, the second visual appearance is a second visual prominence that differs from the first visual prominence (eg, more detailed / less detailed, greater / less color saturation, greater / It has lower brightness and / or displayed with a less opaque / more opaque masking / blackening layer, displayed with greater / less contrast. In some embodiments, the first visual appearance is different from the second visual appearance. By displaying an animation that gradually transitions the second area from one state of visual prominence to a second state of visual prominence, a sudden change in visual prominence gives the user media using the camera user interface. While reducing the possibility of distraction, which can disrupt the user's ability to frame and capture, or cause user actions (eg, rocking or moving the device) that increase the time it takes to frame and capture the media. Provides a user interface with reduced visual tearing. By reducing the opacity of the blackening layer overlaid on the second region to reduce vision, the electronic device allows the field of view of one or more cameras of the electronic device to be on the camera user interface of the electronic device. A user interface can be provided that is optimized to increase the prominence of the second area when it is determined that it is unlikely to cause a visual tear when rendered. But more than one camera when taking an image to provide additional contextual information that allows you to quickly frame the media and capture the media using the camera user interface. You can see the field of view. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の部分は、第1の視覚外観とは異なる(例えば、より詳細に/より詳細ではなく、色彩度、輝度、及び/又はコントラストで表示された、より不透明でない/より不透明なマスキング/黒化層とともに表示された)第3の視覚外観で表示される。いくつかの実施形態では、第1の部分が、第3の視覚外観で表示され、かつ1つ以上のカメラの視野の第2の部分が、第1の視覚外観で表示されることを表示している間に、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)を受信する。いくつかの実施形態では、第2の部分は、ブラックアウトしており、領域は、ブラックアウトしていない。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディアをキャプチャすることであって、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアをキャプチャする。いくつかの実施形態では、1つ以上のカメラの視野に対応するメディアをキャプチャした後に、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、メディアの表現は、第1の視覚外観を有さない。 In some embodiments, the first portion is different from the first visual appearance (eg, less opaque, displayed in more detail / less detail, color saturation, brightness, and / or contrast). Displayed with a third visual appearance (displayed with / more opaque masking / blackening layer). In some embodiments, the first portion is displayed with a third visual appearance, and the second portion of the field of view of one or more cameras is displayed with a first visual appearance. While the electronic device receives a request to capture the media (eg, 2950h). In some embodiments, the second part is blacked out and the area is not blacked out. In some embodiments, in response to receiving a request to capture media, the electronic device captures media corresponding to the field of view of one or more cameras, wherein the media is one or more. Captures media, including content from a first portion of the field of view of one or more cameras and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing the media corresponding to the field of view of one or more cameras, the electronic device presents the content from the first portion of the field of view of the one or more cameras and the field of view of the one or more cameras. Display a representation of the media (eg, 2930 in FIG. 26P), including content from the second portion of. In some embodiments, the representation of the media does not have a first visual appearance.
いくつかの実施形態では、第2の領域の少なくとも第1の部分(例えば、602)は、第1の領域の上である(例えば、デバイスのカメラにより近い、デバイスの上部により近い)。いくつかの実施形態では、第2の領域の少なくとも第2の部分(例えば、606)は、第2の領域の下である(例えば、デバイスのカメラから更に離れる、デバイスの底部により近い)。 In some embodiments, at least the first portion of the second region (eg, 602) is above the first region (eg, closer to the camera of the device, closer to the top of the device). In some embodiments, at least a second portion of the second region (eg, 606) is below the second region (eg, further away from the device's camera, closer to the bottom of the device).
いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の場所で入力を受信する。いくつかの実施形態では、カメラユーザインタフェース上の場所で入力を受信したことに応答して、電子デバイスは、入力(例えば、2950j)の場所が第1の領域(例えば、604)内にあるという判定に従って、入力(例えば、2936c)の場所に、焦点を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950hi)の場所が第2の領域(例えば、602)内にあるという判定に従って、入力の場所に、焦点を合わせるように電子デバイスを構成するのをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定するのをやめる)。 In some embodiments, the electronic device receives input at a location on the camera user interface. In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device states that the location of the input (eg, 2950j) is within a first region (eg, 604). According to the determination, the electronic device is configured to focus on the location of the input (eg, 2936c) (and optionally one or more other camera settings such as exposure or white balance). The electronic device should focus on the location of the input (eg, 2950hi) according to the determination that the location of the input (eg, 2950hi) is within the second region (eg, 602). Stop configuring electronic devices in (and optionally stop setting one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of one or more cameras) ..
いくつかの実施形態では、第1の外観で表示されると、第2の領域(例えば、602)は、第1の領域(例えば、604)と視覚的に区別される(例えば、第2の領域内の1つ以上のカメラの視野に対応するコンテンツは、フェードされ、及び/又は半透明のオーバーレイとともに表示され、第1の領域内の1つ以上のカメラの視野に対応するコンテンツは、フェードされず、及び/又は半透明のオーバーレイとともに表示されない)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the second region (eg, 602) is visually distinguished from the first region (eg, 604) when displayed in the first appearance (eg, second). Content corresponding to the field of view of one or more cameras in the area is faded and / or displayed with a translucent overlay, and content corresponding to the field of view of one or more cameras in the first area is faded. Not displayed and / or displayed with a translucent overlay). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内で特定された最も近いオブジェクトであると満たされる基準を更に含む。いくつかの実施形態では、1組の第1のそれぞれの基準は、第1のそれぞれのオブジェクトが1つ以上のカメラの視野内の焦点の場所にあると満たされる基準を更に含む。 In some embodiments, each set of first criteria further includes criteria for satisfying that each first object is the closest object identified within the field of view of one or more cameras. In some embodiments, each set of first criteria further includes criteria that are satisfied that each first object is at a focal point within the field of view of one or more cameras.
いくつかの実施形態では、第1の領域は、境界部(例えば、608)によって第2の領域から分離される。いくつかの実施形態では、1組の第1のそれぞれの基準は、視覚的引裂きが検出されたと満たされる基準を更に含む(例えば、図26H)(例えば、境界部に隣接する(例えば、隣の、上の)スクリーン引裂き(例えば、第1の領域内に表示された表現が第2の領域内に表示された表現と視覚的に同期していない(例えば、視覚アーチファクトの)外観(例えば、単一のオブジェクトが第1の表現を横切って表示され、かつ第2の表現が変更されて見えるように(例えば、第1の表現に表示されたオブジェクトの一部が、第2の表現に表示されたオブジェクトの一部と並んで見えるように)、第2の表現が方向(例えば、右又は左)にシフトするように見える)が視覚的引裂きの閾値レベルを上回る)。 In some embodiments, the first region is separated from the second region by a boundary (eg, 608). In some embodiments, each of the first set of criteria further includes criteria that are satisfied that a visual tear has been detected (eg, FIG. 26H) (eg, adjacent to the boundary (eg, adjacent). , Above) Screen tear (eg, the representation displayed in the first area is not visually synchronized with the representation displayed in the second area (eg, visual artifacts) appearance (eg, simply) A part of the object displayed in the first representation is displayed in the second representation so that one object is displayed across the first representation and the second representation appears modified (eg, a portion of the object displayed in the first representation is displayed in the second representation. The second representation (eg, appears to shift in the direction (eg, right or left)) exceeds the threshold level of visual tear).
いくつかの実施形態では、1組の第1のそれぞれの基準は、1つ以上のカメラの視野の第1の部分が第1のカメラの視野の一部分であると満たされる基準を更に含み。いくつかの実施形態では、1組の第2のそれぞれの基準は、1つ以上のカメラの視野の第2の部分が第1のカメラとは異なる第2のカメラの視野の一部分であると満たされる基準を更に含む(例えば、図31A〜図31I、及び図32A〜図32Cて記載された方法3200に関連して後述するように)。いくつかの実施形態では、第1のカメラは、第2のタイプの第2のカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ)とは異なる第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))である。
In some embodiments, each of the first set of criteria further includes criteria in which the first portion of the field of view of one or more cameras is satisfied as part of the field of view of the first camera. In some embodiments, each of the second sets of criteria satisfies that the second portion of the field of view of one or more cameras is part of the field of view of a second camera that is different from the first camera. Further includes criteria such as (eg, as described below in connection with the
いくつかの実施形態では、1つ以上のカメラの視野の第2の部分を第1の視覚外観で表示している間に、電子は、メディアをキャプチャする要求を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディアを受信することであって、メディアが、1つ以上のカメラの視野の第1の部分からのコンテンツ及び1つ以上のカメラの視野の第2の部分からのコンテンツを含む、メディアを受信する。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野の第1の部分からのコンテンツのうちの少なくともいくらか及び1つ以上のカメラの視野の第2の部分からのコンテンツのうちの少なくともいくらかを含む、キャプチャされたメディアの表現(例えば、図26Pの2930)を表示する。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、部分からのコンテンツ及び第2の部分からのコンテンツを含むメディアアイテムの表現は、第1及び第2のコンテンツの組み合わせを含み、第1の部分からのコンテンツの少なくともいくつかの表現及び第2の部分からのコンテンツの少なくともいくつかの表現を表示することを含む。いくつかの実施形態では、表現は、第2の部分(又は第1の部分)のコンテンツの少なくともいくつかの表現を表示することを含まず、メディアアイテムの表現は、第2の部分のコンテンツの少なくともいくつかを表示することなく、第2の部分からのコンテンツの少なくともいくつかを使用して生成される。 In some embodiments, while displaying a second portion of the field of view of one or more cameras with a first visual appearance, the electrons receive a request to capture the media. In some embodiments, in response to receiving a request to capture media, the electronic device receives media corresponding to the field of view of one or more cameras, wherein the media is one or more. Receives media, including content from a first portion of the field of view of one or more cameras and content from a second portion of the field of view of one or more cameras. In some embodiments, after capturing the media, the electronic device receives a request to edit the captured media (eg, 2950o). In some embodiments, in response to receiving a request to edit the captured media, the electronic device has at least some of the content from the first part of the field of view of one or more cameras and one. Display a representation of the captured media (eg, 2930 on page 26P), including at least some of the content from the second portion of the field of view of one or more cameras. In some embodiments, the representation of the media item, including the content from the part and the content from the second part, is a corrected version of the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint). Correction). In some embodiments, the representation of the content from the part and the media item containing the content from the second part comprises a combination of the first and second content and at least some of the content from the first part. And including displaying at least some representations of the content from the second part. In some embodiments, the representation does not include displaying at least some representation of the content of the second part (or the first part), and the representation of the media item is of the content of the second part. Generated using at least some of the content from the second part without displaying at least some.
方法3000に関して上述された処理(例えば、図30A〜図30C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3200、3400、3600、及び3800は、方法3000を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3000に関連して上述した様々な技術を使用して、カメラユーザインタフェースの様々な領域の視覚プロミネンスを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 3000 (eg, FIGS. 30A-30C) are also applicable to the methods described above in a similar manner. For example,
図31A〜図31Iは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図32A〜図32Cにおける処理を含む、以下で説明される処理を例示するために使用される。いくつかの実施形態では、図29A〜図29P及び図30A〜図30Cで論じられた1つ以上の技術を、以下で論じられた図31A〜図31I及び図32A〜図32Cの1つ以上の技術と任意選択的に組み合わせてもよい。 31A-31I show exemplary user interfaces for displaying camera user interfaces at various zoom levels using different cameras of electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 32A-32C. In some embodiments, one or more techniques discussed in FIGS. 29A-29P and 30A-30C, one or more of FIGS. 31A-31I and 32A-32C discussed below. It may be optionally combined with the technology.
図31Aは、前側3106aと裏側3106bとを含む電子デバイス600を示す。タッチ感知ディスプレイは、デバイス600の前側3106aに配置され、カメラユーザインタフェースを表示するのに使用される。カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。図31Aのカメラユーザインタフェースはまた、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部608を含む。
FIG. 31A shows an
図31Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。
As shown in FIG. 31A, the
図31Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。
As shown in FIG. 31A, the
図31Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。
As shown in FIG. 31A, the
図31Aに示すように、ライブプレビュー630は、ディスプレイの上部からディスプレイの底部まで延在する。ライブプレビュー630は、1つ以上のカメラ(例えば、又はカメラセンサ)によって検出されたコンテンツの表現である。いくつかの実施形態では(例えば、特定の条件下では)、デバイス600は、異なる1組の1つ以上のカメラを使用して、異なるズームレベルでライブプレビュー630を表示する。いくつかの実施形態では、あるズームレベルでは、デバイス600は、カメラディスプレイ領域604に表示されるライブプレビュー630の部分を表示するための第1のカメラ、並びにインジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の部分を表示するための第2のカメラ(例えば、第1のカメラよりも広い視野(FOV)を有するカメラ)からのコンテンツを使用する。いくつかの実施形態では、デバイス600は、1つだけのカメラからのコンテンツを使用して、ライブプレビュー630の全体を表示する。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。
As shown in FIG. 31A, the
特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、図26A〜図26Sは、デバイス600の裏側3106bの例示的な表現を含む。デバイス600の裏側3106bは、カメラ3180を含む。カメラ3180の各FOVは、異なる幅(例えば、FOV内に包含される角度の異なる幅)を有し、これは、カメラセンサとレンズとの異なる組み合わせを有する各カメラ3180に起因する。カメラ3180は、超広角カメラ3180a、広角カメラ3180b、及び望遠写真カメラ3180cを含み、これは、最も広いFOVから最も狭いFOVを有する裏側3106bに示される。更には、特定のズームレベルでライブプレビュー630の表示に寄与する例示的な1組のカメラに関する理解を改善するために、FOVボックス3182aはまた、デバイス600の前側3106aを包含するように示される。ライブプレビュー630に関するFOVボックス3182aは、カメラディスプレイ領域604(例えば、図31Aの超広角カメラ3180a)内に表示されるライブプレビュー630の部分を表示するために、デバイス600を使用している、カメラのFOVの部分を表す。FOVボックス3182aは、縮尺どおりに表示されない。図31Aにおいて、FOVボックス3182aは、超広角カメラ3180aのFOVがカメラディスプレイ領域604、インジケータ領域602、及びコントロール領域606を含む、ライブプレビュー630全体のコンテンツを提供するのに十分である(例えば、十分に広い)ことを示す。対照的に、以下でより詳細に論じられる図31Cにおいて、広角カメラ3180bは、カメラディスプレイ領域604のコンテンツを提供するために使用されているが、広角カメラ3180bのFOVは、FOVボックス3182bによって示されるように、インジケータ領域602及びコントロール領域606全体のコンテンツを提供するのに十分ではない。
To improve the understanding of an exemplary set of cameras that contribute to the display of the
上述のように、デバイス600は、図31Aにおいて0.5×ズームレベルでライブプレビュー630を表示している。0.5×ズームレベルが第1のズーム値範囲内(例えば、1×ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を表示するように、超広角カメラ3180aのみを使用する。図31Aに示すように、FOVボックス3182aは、超広角カメラ3180aのFOVである。更には、FOVボックス3182aは、ライブプレビュー630を包含し、これは、超広角カメラ3180aのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、超広角カメラ3180aを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを示す。ここで、広角カメラ3180aのFOVがライブプレビュー630全体(及び/又は第1のズーム値範囲である0.5×ズームレベル)を提供するのに十分に大きいため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を提供するように、超広角カメラ3180aのみを使用する。図31Aでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150aを検出する。
As described above, the
図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.5×ズームレベルから0.9×ズームレベルまで変更する(例えば、新たに選択されかつ表示された0.9×ズームアフォーダンス2622dによって示すように)。0.9×ズームレベルが第1のズーム値範囲内(例えば、0.99ズームレベル未満)であるため、デバイス600は、領域602、604、及び606内のライブプレビュー630の部分を表示するように、超広角カメラ3180aのみを使用し続ける。ライブプレビュー630内でズームするとき、デバイス600は、ライブプレビュー630を表示するのに、図31Aで使用されるよりも少ない超広角カメラ3180aのFOVのパーセンテージを使用し、これは、ライブプレビュー630に対してサイズが増加するFOVボックス3182aによって表される(例えば、ライブプレビュー630は、FOVボックス3182のより大きな部分を占有する)。より少ない超広角カメラ3180aのFOVのパーセンテージを使用することによって、デバイス600は、図31Aに適用されたデジタルズームよりも高い超広角カメラ3180aのFOVに、デジタルズームを適用している。したがって、いくつかの実施形態では、図31Bのライブプレビュー630は、図31Aのライブプレビュー630よりも画像歪みが大きい。ライブプレビュー630内でのズームに加えて、デバイス600はまた、デピンチジェスチャ3150aを検出したことに応答して、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、更に、選択されているものとして0.5×ズームアフォーダンス2622aの表示を停止し、かつ選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。図31Bでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150bを検出する。
As shown in FIG. 31B, in response to detecting the
図31Cに示すように、デピンチジェスチャ3150bを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを0.9×ズームレベルから1×ズームレベルまで変更する(例えば、新たに選択されかつ再表示された1×ズームアフォーダンス2622bによって示すように)。1×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の部分を表示するように、超広角カメラ3180aのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の部分を表示するように、カメラ広角カメラ3180bのFOVを使用するように切り替える。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604内のライブプレビュー630の部分の画像歪みを低減するように、広角カメラ3180bを使用するように切り替える。換言すれば、デバイス600が超広角カメラ3180aを使用してライブプレビュー630全体を表示することができるものの、デバイス600は、デバイス600がまた、より狭いFOVのカメラを使用して歪みがより少なく及び/又は忠実度が増加したライブプレビュー630のカメラディスプレイ領域604を表示する(例えば、より高い光学ズームレベルを有するため、より狭いFOVを有するカメラは、歪みがより少なく及び/又は忠実度が増加した画像を生成することができる)ように、より狭い視野を有するカメラ(例えば、広角カメラ3180b)を使用するように切り替える。図31Cにおいて、デバイス600がライブプレビュー630の部分を表示するように、広角カメラ3180bを使用するように切り替えたため、FOVボックス3182bは、広角カメラ3180bのFOVを表すように示される。
As shown in FIG. 31C, in response to detecting the
図31Cに示すように、デバイス600が2つのカメラ(例えば、デバイス600上のそれらの異なる位置による視差を導入する)を使用して、ライブプレビュー630の全体を表示するので、デバイス600は、視覚境界部608で視覚的引裂きを表示する。図31Bに戻ると、デバイス600は、デバイス600が1つだけのカメラを使用して、ライブプレビュー630の全体を表示したので、視覚境界部608で実質的に視覚的引裂きが表示されなかった。図31Cに示すように、デバイス600は、0.5×ズームアフォーダンス2622aを再表示し、かつ0.9×ズームアフォーダンス2622dの表示を停止する。デバイス600はまた、1×ズームアフォーダンス2622bを表示し、ここで、1×ズームアフォーダンス2622bが、選択されているものとして表示されて、ライブプレビュー630が1×ズームレベルで表示されることを示す。図31Cでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150cを検出する。
As shown in FIG. 31C, the
図31Dに示すように、デピンチジェスチャ3150cを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1×ズームレベルから1.2×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.2×ズームアフォーダンス2622eによって示すように)。1.2×ズームレベルが第2のズーム値範囲内(例えば、1×ズームレベルと1.89ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の部分を表示するように、カメラディスプレイ領域604及び超広角カメラ3180aのFOV内に表示されたライブプレビュー630の部分を表示するように、カメラ広角カメラ3180bのFOVを使用し続ける。図31Dにおいて、FOVボックス3182bは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Dに示すように、デバイス600はまた、1×ズームアフォーダンス2622bの表示を、1.2×ズームアフォーダンス2622eの表示に置き換え、ここで、1.2×ズームアフォーダンス2622eが、選択されているものとして表示されて、ライブプレビュー630が1.2×ズームレベルで表示されることを示す。ここで、デバイス600は、1.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にあるため、1×ズームアフォーダンス2622bを置き換える。図31Dでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150dを検出する。
As shown in FIG. 31D, in response to detecting the
図31Eに示すように、デピンチジェスチャ3150eを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.2×ズームレベルから1.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された1.9×ズームアフォーダンス2622fによって示すように)。1.9×ズームレベルが第3のズーム値範囲内(例えば、1.9×ズームレベルと2×ズームレベルとの間)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、広角カメラ3180bのFOVのみを使用するように切り替える。図31Dに示すように、FOVボックス3182bは、ライブプレビュー630全体を包含するように成長し、これは、広角カメラ3180bのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、広角カメラ3180bを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Eに示すように、デバイス600はまた、1.2×ズームアフォーダンス2262dの表示を、選択されているものとして1.9×ズームアフォーダンス2622eの表示に置き換える(例えば、ズームアフォーダンスを置き換えるために、1.9×ズームレベルがズームレベルの範囲内(例えば、1×〜2×などの所定の範囲内)であるため))。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに広角カメラ3180bのみを使用しているため、視覚的引裂きが表示されない。図31Eでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150eを検出する。
As shown in FIG. 31E, in response to detecting the
図31Fに示すように、デピンチジェスチャ3150eを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを1.9×ズームレベルから2×ズームレベルまで変更する(例えば、選択された2×ズームアフォーダンス2622cによって示すように)。2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内にライブプレビュー630の部分を表示するように、広角カメラ3180bのFOVの使用を維持している間に、カメラディスプレイ領域604内に表示されたライブプレビュー630の部分を表示するように、望遠写真カメラ3180cのFOVを使用するように切り替える。いくつかの実施形態では、図31Cのカメラの切り替え(例えば、超広角カメラ3180aから広角カメラ3180b)について論じたのと同様の理由で、広角カメラ3180bを使用する代わりに、デバイス600は、カメラディスプレイ領域604を表示するように、望遠写真カメラ3180cのFOVを使用する。更には、図31Cと同様に、デバイス600は、デバイス600が2つのカメラを使用して、ライブプレビュー630の全体を表示するため、視覚境界部608に視覚的引裂きを表示する。図31Fに示すように、デバイス600がライブプレビュー630の部分を表示するように、望遠写真カメラ3180cを使用するように切り替えたため、FOVボックス3182cは、望遠写真カメラ3180cのFOVを表すように示される。図31Fに示すように、デバイス600はまた、1.9×ズームアフォーダンス2622fの表示を、1×ズームアフォーダンス2622bの表示に置き換え、かつ選択されているものとして2×ズームアフォーダンス2622cを表示する。図31Fでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150fを検出する。
As shown in FIG. 31F, in response to detecting the
図31Gに示すように、デピンチジェスチャ3150fを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2×ズームレベルから2.2×ズームレベルまで変更する(例えば、選択された2.2×ズームアフォーダンス2622gによって示すように)。2.2×ズームレベルが第4のズーム値範囲内(例えば、2×ズームレベルと2.9×ズームレベルとの間)であるため、デバイス600は、他の領域(例えば、領域602及び606)内に表示されたライブプレビュー630の部分を表示するように、カメラディスプレイ領域604及び広角カメラ3180bのFOV内に表示されたライブプレビュー630の部分を表示するように、望遠写真カメラ3180cのFOVを使用し続ける。図31Gにおいて、FOVボックス3182cは、成長していたが、ライブプレビュー630全体を包含しておらず(例えば、図31Aのボックス3182aとは異なり)、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きくない(例えば、十分に広くない)ことを示す。したがって、デバイス600は、2つのカメラを使用し続けて、ライブプレビュー630の全体を表示する。図31Gに示すように、デバイス600はまた、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを置き換える。図31Gでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150gを検出する。
As shown in FIG. 31G, in response to detecting the
図31Hに示すように、デピンチジェスチャ3150gを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.2×ズームレベルから2.9×ズームレベルまで変更する(例えば、新たに表示されかつ選択された2.9×ズームアフォーダンス2622hによって示すように)。2.9×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用して使用するように切り替える。図31Hに示すように、FOVボックス3182cは、ライブプレビュー630全体を包含するように成長し、これは、望遠写真カメラ3180cのFOVが、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630の部分を含む)を表示するように、望遠写真カメラ3180cを使用するのに、デバイス600に対して十分に大きい(例えば、十分に広い)ことを現在示す。したがって、デバイス600は、1つだけのカメラを使用して、ライブプレビュー630の全体を表示する。図31Hに示すように、デバイス600はまた、2.2×ズームアフォーダンス2262gの表示を、選択されているものとして2.9×ズームアフォーダンス2622hの表示に置き換える。更には、図31Eに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。図31Hでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3150hを検出する。
As shown in FIG. 31H, in response to detecting the
図31Iに示すように、デピンチジェスチャ3150hを検出したことに応答して、デバイス600は、ライブプレビュー630にズームインし、ライブプレビュー630のズームレベルを2.9×ズームレベルから3×ズームレベルまで変更する(例えば、新たに表示されかつ選択された3×ズームアフォーダンス2622iによって示すように)。3×ズームレベルが第5のズーム値範囲内(例えば、2.9×ズームレベル以上)であるため、デバイス600は、ライブプレビュー630全体(例えば、領域602、604、及び606内のライブプレビュー630)を表示するように、望遠写真カメラ3180cのFOVのみを使用し続ける。いくつかの実施形態では、デバイス600は、図31Iで(又はより高いズームレベル(例えば、10×ズームレベル)で)ライブプレビュー630を表示するように、デジタルズームを使用する。更には、図31Iに示すように、デバイス600は、デバイス600がライブプレビュー630を表示するのに望遠写真カメラ3180cのみを使用しているため、視覚的引裂きが表示されない。
As shown in FIG. 31I, in response to detecting the
いくつかの実施形態では、ライブプレビュー630のズームインの代わりに、デバイス600は、図31A〜図31Iに関連して上述された説明を反転するように、1つ以上のピンチジェスチャによりライブプレビュー630上でズームアウトする。いくつかの実施形態では、図31A〜図31Iに加えて、デバイス600は、図29A〜図29Uに関連して上述されたように、1つ以上の技術を使用する。例えば、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29A〜図29B、図29E〜図29F、図29H〜図29I、及び図29J〜図29K)、カメラディスプレイ領域604に対応する場所に向けられたジェスチャに対応する場所(又はカメラディスプレイ領域604に対応する場所の外側)に、1つ以上のカメラの焦点を合わせる(又は焦点を合わせるのをやめる)ことができる。加えて、又はあるいは、いくつかの実施形態では、デバイス600は、上述したようなものと類似のジェスチャを受信して(例えば、図29L〜図29P)、シャッターアフォーダンス610上の入力を受信したことに応答して、ライブプレビュー630に表示されなかったコンテンツを使用する(例えば、又は表示する)ことができる。
In some embodiments, instead of zooming in on the
図32A〜図32Cは、いくつかの実施形態による電子デバイスの異なるカメラを使用して様々なズームレベルでカメラユーザインタフェースを表示するための方法を示すフロー図である。方法3200は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3200のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
32A-32C are flow diagrams illustrating a method for displaying a camera user interface at various zoom levels using different cameras of electronic devices according to some embodiments.
後述するように、方法3200は、ズームレベルの変更時にカメラユーザインタフェースを表示するための直感的な仕方を提供する。この方法は、カメラユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にユーザインタフェースのズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As will be described later,
電子デバイスは、表示デバイス(例えば、タッチ感知ディスプレイ)、視野を有する第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)よりも広い視野を有する第2のカメラ(例えば、超広角カメラ)(例えば、3180a)(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど)))を有する。電子デバイスは、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する(3202)。カメラユーザインタフェースは、第1のズームレベル(例えば、2622a)(例えば、第2のカメラよりも狭い視野を有するカメラ)で第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の表現(例えば、630)を含む、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)と、第1のズームレベル(例えば、2622a)(例えば、第1のカメラよりも広い視野を有するカメラ)で第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分の表現(例えば、630)を含む、第2の領域(例えば、602及び606)(例えば、カメラコントロール領域)と、を含む。いくつかの実施形態では、第2の領域は、第1の領域から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 The electronic device is a display device (eg, a touch-sensitive display), a first camera having a field of view (eg, a wide-angle camera) (eg, 3180b) (eg, the same or different side of the electronic device (eg, front camera, rear). A second camera that has a wider field of view than one or more cameras (eg, dual camera, triple camera, quad camera, etc.)), a field of view of the first camera (eg, wide-angle camera) (eg, 3180b). One or more cameras (eg, dual cameras, triple cameras, quad cameras) on the same or different sides of the electronic device (eg, front camera, rear camera) (eg, ultra wide angle camera) (eg, 3180a) Etc.))). The electronic device displays, through the display device, a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (3202). The camera user interface is a first zoom level (eg, 2622a) (eg, a camera having a narrower field of view than the second camera) and a first camera field (eg, a wide-angle camera) (eg, 3180b). A first area (eg, 604) (eg, camera display area) and a first zoom level (eg, 2622a) (eg, than the first camera), including a representation of part 1 (eg, 630). A second region (eg, 602 and 606) that includes a representation (eg, 630) of the first portion of the second camera's field of view (eg, ultra-wide angle camera) (eg, 3180a) in (a camera with a wide field of view). ) (For example, the camera control area) and. In some embodiments, the second region is visually distinguished from the first region (eg, has a dark appearance) (eg, half over the second portion of the field of view of one or more cameras). Has a transparent overlay). In some embodiments, the second region has a darker appearance as compared to the first region. In some embodiments, the second region is located above and / or below the first region within the camera user interface.
表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、3150a、3150b)を受信する(3204)。 While displaying through the display device a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (eg, from the first zoom level to the second). (Request to change to zoom level), the electronic device receives a first request (eg, 3150a, 3150b) that raises the zoom level of the representation of the field of view portion of one or more cameras to a second zoom level (eg, 3150a, 3150b). 3204).
1つ以上のカメラの視野の部分の表現のズームレベルを第2のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応答して(3206)、電子デバイスは、第1の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第1の部分の少なくとも1つのサブセット除外する第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、630)を表示し(3208)、第2の領域において、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第2の部分から除外された第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベル(例えば、2622d、2622b)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分から除外された(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第1のカメラの視野の第1の表現からのカットオフ部分は、第2の領域内に表示されない)第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の部分のサブセットと重なる第2のカメラの視野(超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、630)を表示する(3210)。いくつかの実施形態では、除外されるサブセットの量は、第2のズームレベルに依存する。いくつかの実施形態では、第2の表現は、第1の表現と同じである。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a first request (eg, a request to zoom in on the first user interface) that raises the zoom level of the representation of one or more camera visual field parts to a second zoom level (3206). ), The electronic device is at least in the first portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the second zoom level (eg, 2622d, 2622b) in the first region. A representation (eg, 630) of the second portion of the field of view (eg, wide-angle camera) (eg, 3180b) of the first camera that excludes one subset is displayed (3208), and in the second region, the first Displaying a representation of a subset of a portion of the field of view (eg, wide-angle camera) (eg, 3180b) of a first camera excluded from a second portion of the field of view of a camera (eg, wide-angle camera) (eg, 3180b). Instead, in the second region, at the second zoom level (eg, 2622d, 2622b), it was excluded from the second part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) (eg, 3180b). , User interface and / or when the first representation of the field of view of the first camera is zoomed in, the cutoff portion from the first representation of the field of view of the first camera is not displayed within the second area) Representation of a second portion (eg, 630) of a second camera's field of view (ultra-wide-angle camera) (eg, 3180a) that overlaps a subset of the portion of the first camera's field of view (eg, wide-angle camera) (eg, 3180b). ) Is displayed (3210). In some embodiments, the amount of subset excluded depends on the second zoom level. In some embodiments, the second expression is the same as the first expression. By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第1の部分(例えば、604)は、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分(例えば、602及び606)とは異なる(例えば、第1の部分及び第2の部分は、第2のカメラの利用可能な視野の異なる部分である)。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first portion (eg, 604) of the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a) is the field of view of the second camera (eg, ultra-wide angle camera). It is different from the second part (eg, 602 and 606) of (eg, 3180a) (eg, the first part and the second part are different parts of the available field of view of the second camera). For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の領域(例えば、604)において、第2のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第2の部分の表現(例えば、図31Dの630)を表示し、かつ第2の領域(例えば、602及び606)において、第2のズームレベルで、第2のカメラの視野(例えば、超広角カメラ)(例えば、3180a)の第2の部分の表現(例えば、図31Dの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベル(例えば、2622f)まで上げる第2の要求(例えば、3150d)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する(3212)。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベルまで上げる第2の要求(例えば、カメラユーザインタフェース上でズームインする要求)を受信したことに応答して、及び第3のズームレベルが第1のズーム値範囲(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるという判定に従って(3214)、電子デバイスは、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第3の部分の表現(例えば、図31Eの630)を表示し(3216)、かつ第2の領域(例えば、602及び606)において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)(例えば、広角カメラ)(例えば、3180b)(例えば、図31Eの3180b)の視野の第4の部分の表現(例えば、図31Eの630)を表示する(3218)。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第3のズームレベルまで上げる第1の要求(例えば、第1のユーザインタフェース上でズームインする要求)を受信したことに応答して、及び第3のズームレベルが第1のズーム値範囲を下回るという判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第1の部分の少なくとも1つのサブセット除外する(いくつかの実施形態では、除外されるサブセットの量は、第3のズームレベルに依存する)第1のカメラの視野の第2の部分の表現を表示し、かつ第2の領域において、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第2のズームレベルで、第1のカメラの視野の第2の部分から除外された第1のカメラの視野の部分のサブセットと重なる第2のカメラの視野の第2の部分の表現を表示する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ(例えば、超広角、広角、望遠写真カメラ)及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第3のズームレベルで、第1のカメラの視野の第3の部分の第1のサブセットの表現を表示することと、第2の領域において、第3のズームレベルで、第1のカメラの視野の第1のカメラの視野第4の部分の第3の部分の第2のサブセットの表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, in a first region (eg, 604), at a second zoom level, a representation of a second portion of the field of view of the first camera (eg, a wide-angle camera) (eg, 3180b) (eg, 3180b). For example, 630) in FIG. 31D is displayed, and in the second region (eg, 602 and 606), at the second zoom level, the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a). While displaying the representation of the second portion of (eg, 630 in FIG. 31D), the electronic device sets the zoom level of the representation of the field of view portion of one or more cameras to the third zoom level (eg, 630). Receives a second request (eg, 3150d) (eg, a request to zoom in on the camera user interface) up to 2622f) (3212). In some embodiments, a second request (eg, a request to zoom in on the camera user interface) is received that raises the zoom level of the representation of one or more camera parts of the field of view to a third zoom level. In response, and the third zoom level is within the first zoom range (eg, a zoom range sufficient for the field of view of the first camera to be in both the first and second regions). According to the determination (3214), the electronic device is in a first region (eg, 604), at a third zoom level, a first camera (eg, a wide-angle camera) (eg, 3180b) (eg, FIG. A representation of a third portion of the field of view of
いくつかの実施形態では、第1の領域(例えば、604)において、第3のズームレベルで、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第3の部分の表現(例えば、図31Eの630)を表示し、かつ第2の領域(例えば、602及び606)において、第3のズームレベル(例えば、図31Eの2622f)で、第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第4の部分の表現(例えば、図31Eの630)を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第4のズームレベル(例えば、2622c)まで上げる第3の要求(例えば、3150e)(例えば、カメラユーザインタフェース上でズームインする要求)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第4のズームレベルまで上げる第3の要求を受信したことに応答して、及び第4のズームレベルが第2のズーム値範囲(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるという判定に従って、電子デバイスは、第1の領域において、第4のズームレベル(例えば、図31Fの2622c)で、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセットを除外する、第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第5の部分の表現(例えば、図31Fの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、ユーザインタフェース及び/又は第1のカメラの視野の第1の表現がズームインされるとき、第3のカメラの視野の表現からのカットオフ部分は、第2の領域内に表示されない)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラの視野(例えば、広角カメラ)(例えば、3180b)の第5の部分の表現(例えば、図31Fの630)を表示する。いくつかの実施形態では、第4のズームレベルが第2のズーム値範囲内にない(ズームイン時)(又は依然として第1のズーム値範囲内にある)という判定に従って、電子デバイスは、第1及び第2の領域において、第1のカメラのみを使用し続ける(例えば、第1の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第3の部分の表現を表示すること、及び第2の領域において、第3のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第4の部分の表現を表示すること)。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region (eg, 604), at a third zoom level, a representation of a third portion of the field of view of the first camera (eg, a wide-angle camera) (eg, 3180b) (eg, 3180b). For example, 630) in FIG. 31E, and in the second region (eg, 602 and 606), at a third zoom level (eg, 2622f in FIG. 31E), the field of view of the first camera (eg, wide angle). While displaying the representation of the fourth portion of the camera) (eg, 3180b) (eg, 630 in FIG. 31E), the electronic device sets the zoom level of the representation of the field of view portion of one or more cameras. It receives a third request (eg, 3150e) (eg, a request to zoom in on the camera user interface) to raise the zoom level of 4 (eg, 2622c). In some embodiments, in response to receiving a third request to raise the zoom level of the representation of a portion of the field of view of one or more cameras to a fourth zoom level, and the fourth zoom level is a second. Determining that the device is within a zoom value range of 2 (eg, a zoom value range in which the device switches to use a first camera and a third camera (eg, a telephoto camera can fill the preview area)). According to, in the first region, at the fourth zoom level (eg, 2622c in FIG. 31F), the electronic device has a third camera (eg, a telephoto camera) (eg, 3180c) (eg, a third camera). Has a narrower field of view than the first camera, but excludes at least one subset of the third part of the field of view of the third camera (eg, has a narrower field of view than a wide angle camera). A representation of a fifth portion of the field of view of a telephoto camera (eg, 630 in FIG. 31F) is displayed, and in a second region, a third camera (eg, a telephoto camera) (eg, 3180c) (eg, 3180c) (eg, 3180c) (eg, a telephoto camera). , User interface and / or when the first representation of the field of view of the first camera is zoomed in, the cutoff portion from the representation of the field of view of the third camera is not displayed within the second area) In the second region, at the fourth zoom level, without displaying a representation of a subset of the visual field portion of a third camera (eg, a telephoto camera) (eg, 3180c) excluded from the fifth portion. , A subset of the field of view of the third camera (eg, telephoto camera) (eg, 3180c) excluded from the fifth part of the field of view of the third camera (eg, telephoto camera) (eg, 3180c). Displays a representation (eg, 630 of FIG. 31F) of the fifth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) that overlaps with. In some embodiments, the electronic device is subjected to the first and first and according to the determination that the fourth zoom level is not within the second zoom range (when zoomed in) (or is still within the first zoom range). In the second region, continue to use only the first camera (eg, in the first region, at the third zoom level, the first in the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). Display the representation of the third part, and in the second area, at the third zoom level, display the representation of the fourth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). To do). By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1の領域において、第4のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野を有する)の視野の第3の部分の少なくとも1つのサブセット除外する第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第4の第5の部分の表現(図31Gの630)を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第4のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第5の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、広角カメラ)(例えば、3180b)の視野の第5の第4の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベル(例えば、2622h)まで上げる第4の要求(例えば、3150g)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応答して、及び第5のズームレベルが第3のズーム値範囲(例えば、第1のズーム値範囲及び第2のズーム値範囲の外側のズーム値範囲)(例えば、第3のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)内にあるという判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現(例えば、図31Hの630)を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現(例えば、図31Hの630)を表示する。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第5のズームレベルまで上げる第4の要求を受信したことに応答して、第5のズームレベルが第3のズーム値範囲内にない(又は下回る)という判定に従って、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、より高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセット除外する、第3のカメラの視野の第5の部分の表現を表示し、第2の領域において、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第5のズームレベルで、第3のカメラの視野の第5の部分から除外された第3のカメラの視野の部分のサブセットと重なる第1のカメラの視野の第5の部分の表現を表示する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第5のズームレベルが第3のズーム値範囲内にない(又は依然として第2のズーム値範囲内にある)という判定に従って、電子デバイスは、第1の領域において、第5のズームレベルで、第3のカメラの視野の第6の部分の表現を表示することと、第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, at the fourth zoom level, a third of the field of view of the third camera (eg, the third camera has a narrower field of view than the first camera). A representation of the fourth fifth portion of the field of view (eg, 630 in FIG. 31G) of a third camera (eg, a telephoto camera) (eg, 3180c) that excludes at least one subset of portions is displayed and the second In the region, a portion of the field of view of a third camera (eg, telephoto camera) (eg, 3180c) excluded from the fifth portion of the field of view of the third camera (eg, telephoto camera) (eg, 3180c). In the second region, at the fourth zoom level, the third camera (eg, a telephoto camera) (eg, 3180c) was excluded from the fifth portion of the field of view without displaying a representation of a subset of. A first camera (eg, a telephoto camera) (eg, 3180c) (eg, a wide-angle camera) (eg, 3180b) that overlaps a subset of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c). ), While displaying the representation of the fifth and fourth portion of the field of view, the electronic device sets the zoom level of the representation of the field of view of one or more cameras to the fifth zoom level (eg, 2622h). Receive a fourth request (eg, 3150g) to raise to. In some embodiments, in response to receiving a fourth request to raise the zoom level of the representation of a portion of the field of view of one or more cameras to a fifth zoom level, and a fifth zoom level is a fifth. 3 zoom value ranges (eg, zoom value ranges outside the first zoom value range and the second zoom value range) (eg, the field of view of the third camera covers both the first and second regions. According to the determination that it is within a sufficient zoom value range to be present), the electronic device is in a first region, at a fifth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c). Displays a representation of a sixth portion of the field of view (eg, 630 in FIG. 31H) and in a second region at a fifth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c). ) Is displayed (eg, 630 in FIG. 31H). In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area; for example, in response to receiving a fourth request to raise the zoom level of the representation of one or more cameras' parts of the field of view to the fifth zoom level. Then, according to the determination that the fifth zoom level is not within (or below) the third zoom value range, in the first region, at the fifth zoom level, the third camera (eg, the third camera) Displays a representation of the fifth part of the third camera's field of view, excluding at least one subset of the third part of the field of view (which has a narrower field of view than the first camera, but has a higher optical zoom level). , In the second region, the fifth zoom in the second region, without displaying a representation of a subset of the third camera's visual field portion excluded from the fifth portion of the third camera's field of view. The level displays a representation of the fifth part of the field of view of the first camera that overlaps a subset of the part of the field of view of the third camera that is excluded from the fifth part of the field of view of the third camera. In some embodiments, according to the determination that the fifth zoom level is not within the third zoom value range, the electronic device represents within a camera and a second region that displays the representation within the first region. Use a type of camera that displays. In some embodiments, according to the determination that the fifth zoom level is not within the third zoom value range (or is still within the second zoom value range), the electronic device is in the first region, the first. At a zoom level of 5, display the representation of the sixth part of the field of view of the third camera, and in the second region, at the fifth zoom level, of the seventh part of the field of view of the third camera. Stop displaying expressions. By switching a camera to display an expression when certain conditions are specified, the user can see improved fidelity and visuals when the expression is displayed within a certain zoom value range. An improved representation of an electronic device with tears can be viewed. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第6の部分の表現を表示し、かつ第2の領域において、第5のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第7の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第6のズームレベル(例えば、第5のズームレベル未満であるが、第3のズームレベルより高いズームレベル)まで下げる(例えば、ズームアウト)第1の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第6のズームレベルまで下げる(例えば、ズームアウト)第1の要求を受信したことに応答して、及び第6のズームレベルが、第2の領域内に表示されるように第4のズーム値範囲(例えば、第1のズーム値範囲及び第3のズーム値範囲の外側のズーム値範囲)内にあるという判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)(例えば、第3のカメラは、第1のカメラよりも狭い視野だが、高い光学ズームレベルを有する)の視野の第3の部分の少なくとも1つのサブセットを除外する、第3のカメラ(例えば、広角カメラよりも狭い視野を有する望遠写真カメラ)の視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットの表現を表示することなく、第2の領域において、第6のズームレベルで、第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分から除外された第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の部分のサブセットと重なる第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示する。いくつかの実施形態では、第4のズーム値範囲は、第2のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続ける。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第6のズームレベルが第4のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第6のズームレベルで、第3のカメラの視野の第6の部分の表現を表示し続け、かつ第2の領域において、第5のズームレベルで、第3のカメラの視野の第7の部分の表現を表示し続ける。特定の条件が規定されているときに、電子デバイスの異なるカメラを使用して表現の異なる部分を表示することにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in a first region, at a fifth zoom level, a representation of a sixth portion of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) is displayed and In the second region, while displaying a representation of the seventh part of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) at a fifth zoom level, the electronic device Reduce the zoom level of the representation of the field of view portion of one or more cameras to a sixth zoom level (eg, a zoom level that is less than the fifth zoom level but higher than the third zoom level) (eg, zoom out). ) Receive the first request. In some embodiments, in response to receiving a first request to reduce the zoom level of the representation of a portion of the field of view of one or more cameras to a sixth zoom level (eg, zoom out), and a third. It is said that the zoom level of 6 is within the fourth zoom value range (for example, the zoom value range outside the first zoom value range and the third zoom value range) so as to be displayed in the second area. According to the determination, the electronic device is in the first region, at the sixth zoom level, a third camera (eg, a telephoto camera) (eg, 3180c) (eg, the third camera is from the first camera). Of the field of view of a third camera (eg, a telephoto camera with a narrower field of view than a wide-angle camera), which also excludes at least one subset of the third part of the field of view (which has a narrow field of view but has a high optical zoom level). A third camera (eg, 3180c) that displays the representation of the eighth part and is excluded from the eighth part of the field of view of the third camera (eg, telephoto camera) (eg, 3180c) in the second region. A third camera (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) (eg, a telephoto camera) at a sixth zoom level in a second region without displaying a representation of a subset of the visual field portion. A first camera (eg, a wide-angle camera) (eg, a wide-angle camera) (eg, a wide-angle camera) that overlaps a subset of the field of view of a third camera (eg, a telephoto camera) (eg, 3180c) that is excluded from the eighth portion of the field of view of the 3180c). The representation of the eighth part of the field of view of 3,180b) is displayed. In some embodiments, the fourth zoom value range is the same as the second zoom value range. In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area. In some embodiments, according to the determination that the sixth zoom level is not within the fourth zoom value range, the electronic device is a type of camera that displays a representation within the first region and within the second region. Use a type of camera that displays the representation in. In some embodiments, according to the determination that the sixth zoom level is not within the fourth zoom value range, the electronic device is in the first region, at the sixth zoom level, in the field of view of the third camera. It continues to display the representation of the sixth portion and, in the second region, at the fifth zoom level, continues to display the representation of the seventh portion of the field of view of the third camera. By using different cameras on the electronic device to display different parts of the representation when certain conditions are specified, the user can see the representation of the electronic device when the representation is displayed within a certain zoom value range. You can browse the improved expressions. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセットの表現を表示することなく、第1の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセットと重なる第3のカメラ(例えば、望遠写真カメラ)(例えば、3180c)の視野の第8の部分の表現を表示し、かつ第2の領域において、第6のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の少なくとも1つのサブセット除外する第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第8の部分の表現を表示している間に、電子デバイスは、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベル(例えば、第6のズームレベル未満であるが、第2のズームレベルより高いズームレベル)まで下げる(例えば、ズームアウト)第2の要求を受信する。いくつかの実施形態では、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、ズームアウト)第1の要求を受信したことに応答して、及び第7のズームレベルが第5のズーム値範囲(例えば、第2のズーム値範囲及び第4のズーム値範囲の外側のズーム値範囲)(例えば、第1のカメラの視野が第1の領域及び第2の領域の両方に存在するのに十分なズーム値範囲)(例えば、デバイスが第1のカメラ及び第3のカメラを使用するように切り替えるズーム値範囲(例えば、望遠写真カメラは、プレビュー領域を満たすことができる))内にあるという判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の第9の部分の表現を表示し、かつ第2の領域において、第7のズームレベルで、第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第10の部分の表現を表示する。いくつかの実施形態では、第2のズーム値は、第1のズーム値範囲と同じである。いくつかの実施形態では、あるカメラの視野(例えば、第2のカメラよりも狭い視野を有するカメラ)が、特定のズームレベルで第1及び第2の領域の両方を満たすことができる場合、電子デバイスは、単一のカメラのみを使用して、両方の領域で表現を表示するように切り替える。いくつかの実施形態では、あるカメラが第1及び第2の領域の両方を特定のズームレベルで満たすことができない場合、デバイスは、第1の領域内に表現を表示するあるカメラ及び第2の領域内に表現を表示する別のカメラを使用し続け;例えば、1つ以上のカメラの視野の部分の表現のズームレベルを第7のズームレベルまで下げる(例えば、第1のユーザインタフェース上でズームアウトする要求)第1の要求を受信したことに応答して、及び第7のズームレベルが第5のズーム値範囲内でない(例えば、下回る)という判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分の少なくとも1つのサブセット除外する(いくつかの実施形態では、除外されるサブセットの量は、第7のズームレベルに依存する)第3のカメラの視野の第8の部分の表現を表示し、かつ第2の領域において、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットの表現を表示することなく、第2の領域において、第7のズームレベルで、第3のカメラの視野の第8の部分から除外された第3のカメラの視野の部分のサブセットと重なる第1のカメラの視野の第8の部分の表現を表示する。いくつかの実施形態では、第7のズームレベルが第5のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域内に表現を表示するあるタイプのカメラ及び第2の領域内に表現を表示するあるタイプのカメラを使用する。いくつかの実施形態では、第3のズームレベルが第1のズーム値範囲内にないという判定に従って、電子デバイスは、第1の領域において、第7のズームレベルで、第1のカメラの視野の第1の第9の部分の表現を表示することと、第2の領域において、第7のズームレベルで、第1のカメラの視野の第10の部分の表現を表示することと、をやめる。特定の条件が規定されているときに、あるカメラが表現を表示するように切り替えられることにより、ユーザは、表現が特定のズーム値範囲内に表示されるとき、改善された忠実度及び視覚的引裂きを有する、電子デバイスの改善された表現を閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in the first region, the sixth, without displaying a representation of at least one subset of the eighth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). A third camera (eg, a telephoto camera) (eg, 3180c) that overlaps at least one subset of the eighth portion of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the zoom level of. Displays the representation of the eighth portion of the field of view of, and in the second region, at the sixth zoom level, of the eighth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b). While displaying a representation of the eighth portion of the field of view of a first camera (eg, a wide-angle camera) (eg, 3180b) that excludes at least one subset, the electronic device is in the field of view of one or more cameras. Receive a second request to reduce the zoom level of the partial representation to a seventh zoom level (eg, a zoom level below the sixth zoom level but higher than the second zoom level) (eg, zoom out). .. In some embodiments, in response to receiving a first request to reduce the zoom level of the representation of a portion of the field of view of one or more cameras to a seventh zoom level (eg, zoom out), and. The zoom level of 7 is the fifth zoom value range (for example, the zoom value range outside the second zoom value range and the fourth zoom value range) (for example, the field of view of the first camera is the first region and the first region). A zoom range sufficient to be present in both areas (eg, a zoom range in which the device switches to use the first and third cameras (eg, a telephoto camera has a preview area). According to the determination that it is within)), the electronic device is the first in the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the seventh zoom level in the first region. In the second region, at the seventh zoom level, the representation of the tenth part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) is displayed. indicate. In some embodiments, the second zoom value is the same as the first zoom value range. In some embodiments, if the field of view of a camera (eg, a camera with a narrower field of view than the second camera) can fill both the first and second regions at a particular zoom level, then electronic. The device switches to display representations in both areas using only a single camera. In some embodiments, if a camera is unable to fill both the first and second areas with a particular zoom level, the device displays a representation within the first area of the camera and the second. Continue to use another camera that displays the representation within the area; for example, reduce the zoom level of the representation of one or more cameras' parts of the field of view to the seventh zoom level (eg, zoom on the first user interface). Request to Out) In response to receiving the first request, and according to the determination that the seventh zoom level is not within (eg, below) the fifth zoom value range, the electronic device is in the first region. Exclude at least one subset of the eighth portion of the third camera's field of view at the seventh zoom level (in some embodiments, the amount of the excluded subset depends on the seventh zoom level. ) A subset of the third camera's field of view that displays the representation of the eighth part of the third camera's field of view and, in the second region, is excluded from the eighth part of the third camera's field of view. In the second region, without displaying the representation of, at the seventh zoom level, the first overlaps with a subset of the third camera's field of view excluded from the eighth part of the third camera's field of view. Displays the representation of the eighth part of the camera's field of view. In some embodiments, according to the determination that the seventh zoom level is not within the fifth zoom value range, the electronic device is a type of camera that displays a representation within the first region and within the second region. Use a type of camera that displays the representation in. In some embodiments, according to the determination that the third zoom level is not within the first zoom value range, the electronic device is in the first region, at the seventh zoom level, in the field of view of the first camera. Displaying the representation of the first ninth portion and displaying the representation of the tenth portion of the field of view of the first camera at the seventh zoom level in the second region ceases. By switching a camera to display an expression when certain conditions are specified, the user can see improved fidelity and visuals when the expression is displayed within a certain zoom value range. An improved representation of an electronic device with tears can be viewed. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第2の領域(例えば、602及び606)は、複数のカメラ設定を制御する複数のコントロールアフォーダンス(例えば、620、626)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、プロアクティブコントロールアフォーダンス、シャッターアフォーダンス、カメラ選択アフォーダンス、複数のカメラモードアフォーダンス)を含む。 In some embodiments, the second region (eg, 602 and 606) is a plurality of control affordances (eg, 620, 626) (eg, selectable user interface objects) (eg, selectable user interface objects) that control multiple camera settings (eg, selectable user interface objects). Includes Proactive Control Affordances, Shutter Affordances, Camera Selection Affordances, Multiple Camera Mode Affordances).
いくつかの実施形態では、電子デバイスは、カメラユーザインタフェース上の場所で入力(例えば、2950i、2950j)を受信する。いくつかの実施形態では、カメラユーザインタフェース上の場所で入力を受信したことに応答して、電子デバイスは、入力(例えば、2950j)の場所が第1の領域(例えば、604)内にあるという判定に従って、入力の場所に、焦点(例えば、2936c)を合わせるように電子デバイスを構成し(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定し)、電子デバイスは、入力(例えば、2950i)の場所が第2の領域(例えば、602)内にあるという判定に従って、入力の場所に、焦点を合わせるように電子デバイスを構成するのをやめる(及び任意選択的に、露出又はホワイトバランスなどの1つ以上の他のカメラ設定を、1つ以上のカメラの視野の特性に基づいて設定するのをやめる(例えば、図29J)。 In some embodiments, the electronic device receives an input (eg, 2950i, 2950j) at a location on the camera user interface. In some embodiments, in response to receiving an input at a location on the camera user interface, the electronic device states that the location of the input (eg, 2950j) is within a first region (eg, 604). According to the determination, the electronic device is configured to focus (eg, 2936c) to the location of the input (and optionally one or more other camera settings such as exposure or white balance). The electronic device should focus on the location of the input (eg, 2950i) according to the determination that the location of the input (eg, 2950i) is within the second region (eg, 602). Stop configuring electronic devices in (and optionally stop setting one or more other camera settings, such as exposure or white balance, based on the characteristics of the field of view of one or more cameras (and optionally stop) For example, FIG. 29J).
いくつかの実施形態では、表示デバイスを介して、第1のズームレベルで表示された1つ以上のカメラの視野の少なくとも一部分の表現(例えば、図29Hの630)を含むカメラユーザインタフェースを表示している間に(例えば、第1のズームレベルから第2のズームレベルへ変更する要求)、電子デバイスは、メディアをキャプチャする要求(例えば、2950h)(例えば、シャッターアフォーダンス(例えば、610)に向けられたジェスチャ(例えば、タップ))を受信する。いくつかの実施形態では、メディアをキャプチャする要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野に対応するメディア(例えば、図29Iの624)をキャプチャすることであって、メディアが、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツを含む、メディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャした後に、電子デバイスは、キャプチャされたメディアを編集する要求(例えば、2950o)を受信する。いくつかの実施形態では、キャプチャされたメディアを編集する要求を受信したことに応答して、電子デバイスは、第1のズームレベルでの第1のカメラ(例えば、広角カメラ)(例えば、3180b)の視野の第1の部分からのコンテンツのうちの少なくともいくらか及び第1のズームレベルでの第2のカメラ(例えば、超広角カメラ)(例えば、3180a)の視野の第1の部分からのコンテンツのうちの少なくともいくらかを含む、キャプチャされたメディアの表現(例えば、図29Pの2930)を表示することと、を含む。いくつかの実施形態では、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現は、メディアの表現の補正された(例えば、メディアアイテム内の識別された対象を保持するために、安定化、水平補正、垂直視点補正、水平視点補正、及び/又は再フレーム化された)バージョンである。いくつかの実施形態では、電子デバイスは、第1のズームレベルでの第1のカメラの視野の第1の部分からのコンテンツ及び第1のズームレベルでの第2のカメラの視野の第1の部分からのコンテンツを含む、メディアアイテムの表現を表示し、第1のズームレベルで第1のカメラの視野の第1の部分からのコンテンツの少なくともいくらの表現及び第1のズームレベルで第2のカメラの視野の第1の部分からのコンテンツの少なくともいくらの表現を表示することを含む。いくつかの実施形態では、表現は、第1のズームレベルで第2のカメラ(又は第1のカメラ)の視野の第1の部分からのコンテンツの少なくともいくらかの表現を表示することを含まず、メディアアイテムの表現は、第1のズームレベルで第2のカメラの視野の第1の部分からコンテンツの少なくともいくらかを使用して生成される。 In some embodiments, the display device displays a camera user interface that includes a representation of at least a portion of the field of view of one or more cameras displayed at the first zoom level (eg, 630 in FIG. 29H). While (eg, a request to change from a first zoom level to a second zoom level), the electronic device is directed towards a request to capture media (eg, 2950h) (eg, shutter affordance (eg, 610)). Receive the gesture (eg, tap) that was done. In some embodiments, in response to receiving a request to capture the media, the electronic device captures the media corresponding to the field of view of one or more cameras (eg, 624 of FIG. 29I). The media is the content from the first part of the field of view of the first camera (eg, wide-angle camera) (eg, 3180b) at the first zoom level and the second camera at the first zoom level (eg, 3180b). For example, it captures media containing content from a first portion of the field of view of an ultra-wide-angle camera (eg, 3180a). In some embodiments, after capturing the media, the electronic device receives a request to edit the captured media (eg, 2950o). In some embodiments, in response to receiving a request to edit the captured media, the electronic device is a first camera (eg, a wide-angle camera) (eg, 3180b) at the first zoom level. Of the content from the first part of the field of view of at least some of the field of view and the content from the first part of the field of view of the second camera (eg, ultra-wide angle camera) (eg, 3180a) at the first zoom level. Includes displaying a representation of the captured media (eg, 2930 on page 29P), including at least some of them. In some embodiments, the content from the first part of the field of view of the first camera at the first zoom level and the content from the first part of the field of view of the second camera at the first zoom level. The representation of the media item, including, has been corrected for the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint correction, and / or to retain the identified object in the media item. It is a (reframed) version. In some embodiments, the electronic device is the content from the first portion of the field of view of the first camera at the first zoom level and the first of the field of view of the second camera at the first zoom level. Displays the representation of media items, including content from parts, at least how much representation of content from the first part of the field of view of the first camera at the first zoom level and the second at the first zoom level. Includes displaying at least any representation of the content from the first portion of the camera's field of view. In some embodiments, the representation does not include displaying at least some representation of the content from the first part of the field of view of the second camera (or first camera) at the first zoom level. The representation of the media item is generated from the first part of the field of view of the second camera at the first zoom level using at least some of the content.
方法3200に関して上述された処理(例えば、図32A〜図32C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3400、3600、及び3800は、方法3200を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3000は、任意選択的に、方法3200に関連して上述した様々な技術を使用して、様々なズームレベルでメディアをキャプチャするために、異なる1組のカメラの組み合わせを使用することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 3200 (eg, FIGS. 32A-32C) are also applicable to the methods described above in a similar manner. For example,
図33A〜図33Qは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図34A〜図34Bにおける処理を含む、以下で説明される処理を例示するために使用される。いくつかの実施形態では、図8A〜図8V及び図9A〜図9Cで論じられた1つ以上の技術を、以下で論じられた図33A〜図33Q及び図34A〜図34Bの1つ以上の技術と任意選択的に組み合わせてもよい。 33A-33Q show exemplary user interfaces for varying zoom levels using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 34A-34B. In some embodiments, one or more techniques discussed in FIGS. 8A-8V and 9A-9C, and one or more of FIGS. 33A-33Q and 34A-34B discussed below. It may be optionally combined with the technology.
図33Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。
FIG. 33A shows an
図33Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。いくつかの実施形態では、図33Aのカメラユーザインタフェースは、インジケータ領域602とカメラディスプレイ領域604との境界部及びカメラディスプレイ領域604とコントロール領域606との境界部を示す視覚境界部を含む。いくつかの実施形態では、ライブプレビュー630は、インジケータ領域602及び/又はコントロール領域606に延びない。
The camera user interface of FIG. 33A includes an
図33Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602aを含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。
As shown in FIG. 33A, the
図33Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、1×ズームアフォーダンス2622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。
As shown in FIG. 33A, the
図33Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。
As shown in FIG. 33A, the
更には、図33Aは、カメラインタフェースの異なる場所に対応する場所で様々なジェスチャに応答するデバイス600を示す。具体的には、図33Aは、デバイス600が3つの入力に応答することを示す:(1)インジケータ領域602内の場所に対応する場所でのタップジェスチャ(タップジェスチャ3350a);(2)ズームアフォーダンス2622のうちの1つの場所に対応しない、カメラディスプレイ領域604内の場所に対応するタップジェスチャ(タップジェスチャ3350b);及び(3)カメラディスプレイ領域604内にある、ズームアフォーダンス2622のうちの1つに対応する場所に対応するタップジェスチャ(タップジェスチャ3350c)。ある代替的シナリオにおいて、図33Aでは、デバイス600は、インジケータ領域602内の場所に対応する場所でのタップジェスチャ3350aを検出する。タップジェスチャ3350aを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を維持し、かつ1つ以上のカメラの視野内の場所に対応するタップジェスチャ3550aの場所に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成するのをやめる(例えば、図29H〜図29Iにおいてタップジェスチャ2950iに関連して上で開示されたのと同様の技術を使用して)。別の代替的シナリオにおいて、図33Aでは、デバイス600は、ズームアフォーダンス2622のうちの1つの場所に対応しない、カメラディスプレイ領域604内の場所に対応するタップジェスチャの場所でのタップジェスチャ3350bを検出する。タップジェスチャ3350bを検出したことに応答して、デバイス600は、1つ以上のカメラの視野内の場所に対応するタップジェスチャ3550bの場所に焦点を合わせるように、電子デバイスの1つ以上のカメラを構成する(例えば、図29I〜図29Jにおいてタップジェスチャ2950jに関連して上で開示されたのと同様の技術を使用して)。図33Aでの追加のシナリオにおいて、デバイス600は、1×ズームアフォーダンス262bに対応する場所でのタップジェスチャ3350cを検出する。
Furthermore, FIG. 33A shows the
図33Bに示すように、タップジェスチャ3350cを検出したことに応答して、デバイス600は、第1のカメラセンサから異なる視野を有する第2のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Aの1×ズームレベルから2×ズームレベルに更新する。いくつかの実施形態では、(例えば、図31Iに関連して上述されたように)第2のカメラセンサが望遠写真レンズを有するカメラに対応するため、デバイス600は、非透明(例えば、又は黒)オーバーレイとともに、インジケータ領域602を表示する。
As shown in FIG. 33B, in response to detecting the
タップジェスチャ3350cを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されていないものとして1×ズームアフォーダンス2622bを表示する。図33Bに示すように、ズームアフォーダンスが選択されていないものとして表示されるとき、ズームアフォーダンスは、太字ではなく、かつ選択されたときに表示される1つ以上の文字(例えば、「x」)を含まない(例えば、図33Bの1×ズームアフォーダンス2622bと比較して図33Aの1×ズームアフォーダンス2622b)。更には、デバイス600はまた、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する。図33Bに示すように、ズームアフォーダンスが選択されているものとして表示されるとき、ズームアフォーダンスは、太字化され、かつ未選択のズームアフォーダンスを含まない1つ以上の文字を含む(例えば、ズームレベルの隣の「x」)。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを拡大させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの1×ズームレベルから図33Bの2×ズームレベルへ)、テキストを拡大する。加えて、タップジェスチャ3350cを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Bに示すように、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスよりも大きいサイズを有する。いくつかの実施形態では、ズームアフォーダンスが選択されていると、ズームアフォーダンスは、他の未選択のズームアフォーダンスとは異なる色である。いくつかの実施形態では、タップジェスチャ3350cを検出したことに応答して、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「2×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンスを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして2×ズームアフォーダンス2622cを表示する。
In response to detecting the
図33B〜図33Fは、2つの異なるタイプズームアフォーダンスに向けられたジェスチャに応答して、ズームレベルを変更するデバイス600を示す:(1)ズームアフォーダンス(例えば、1×ズームアフォーダンス2622b)が繰り返し選択されているとき、ライブプレビュー630が異なるズームレベルで表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス;及び(2)ズームアフォーダンスが繰り返し選択されているとき、ライブプレビュー630があるズームレベルでのみ表示されるように、デバイス600がライブプレビュー630を更新させるズームアフォーダンス(例えば、1×ズームアフォーダンス2622c)。図33Bでは、デバイス600は、1×ズームアフォーダンス2622bに対応する場所での追加のタップジェスチャ3350dを検出する。
33B-33F show a
図33Cに示すように、タップジェスチャ3350dを検出したことに応答して、デバイス600は、第2のカメラセンサから異なる視野を有する第3のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Bの2×ズームレベルから0.5×ズームレベルに更新する。ここで、第3のカメラセンサが超広レンズを有するカメラに対応するため、デバイス600は、デバイスが第2のカメラセンサ(例えば、図31Aに関連して上述したように超広レンズではない電話レンズ又は複数のレンズ)で表示されたときに、非透明(例えば、又は黒)オーバーレイの代わりに透明オーバーレイを有するインジケータ領域602を表示する。タップジェスチャ3350dを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、2×ズームアフォーダンス2622cの表示を更新することにより、デバイス600は、選択されていないものとしてズームアフォーダンス2622cを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したようなものと同様の技術を使用して)。更には、デバイス600はまた、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されているものとして2×ズームアフォーダンス2622cを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したようなものと同様の技術を使用して)。加えて、タップジェスチャ3350dを検出したことに応答して、デバイス600は、1×ズームアフォーダンス2622bの表示を維持する(例えば、1×ズームアフォーダンス2622bは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを減少させる。いくつかの実施形態では、デバイス600は、デバイスがより小さいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの2×ズームレベルから図33Bの0.5×ズームレベルへ)、テキストを減少させる。いくつかの実施形態では、ズームレベルが0.5×であるときに表示される縮小されたテキストは、ズームレベルが1×であるときに表示されるテキストよりも小さい。いくつかの実施形態では、タップジェスチャ3350dを検出したことに応答して、デバイス600は、新しいズームレベルを示す(例えば、1×ズームアフォーダンス2622bのテキストを「0.5×」に変更する)ように、1×ズームアフォーダンス2622bの表示を更新し、かつ選択されているものとして1×ズームアフォーダンス2622bを表示し続ける。いくつかの実施形態では、新しいズームレベルを示すために、デバイスが1×ズームアフォーダンス2622bの表示を更新すると、デバイス600は、未選択である(又は選択されている)ものとして0.5×ズームアフォーダンス2622aを表示する。図33Cでは、デバイス600は、1×ズームアフォーダンス2622bに対応する場所での追加のタップジェスチャ3350eを検出する。
As shown in FIG. 33C, in response to detecting the
図33Dに示すように、タップジェスチャ3350eを検出したことに応答して、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Cの0.5×ズームレベルから1×ズームレベルに更新する。タップジェスチャ3350eを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、0.5×ズームアフォーダンス2622aの表示を更新することにより、デバイス600は、選択されていないものとして0.5×ズームアフォーダンス2622aを表示する(例えば、図33Bの1×ズームアフォーダンス2622bに関連して上述したようなものと同様の技術を使用して)。更には、デバイス600はまた、1×ズームアフォーダンス2622bの表示を更新することにより、デバイス600は、選択されているものとして1×ズームアフォーダンス2622bを表示する(例えば、図33Bの2×ズームアフォーダンス2622cに関連して上述したようなものと同様の技術を使用して)。加えて、タップジェスチャ3350eを検出したことに応答して、デバイス600は、2×ズームアフォーダンス2622cの表示を維持する(例えば、2×ズームアフォーダンス2622cは、未選択のままである)。いくつかの実施形態では、タップジェスチャ3350eを検出したことに応答して、デバイス600は、ズームアフォーダンス2622のテキストを増加させる。いくつかの実施形態では、デバイス600は、デバイスがより大きいズームレベルでライブプレビュー630を表示しているため(例えば、図33Aの0.5×ズームレベルから図33Bの1×ズームレベルへ)、テキストを増加させる。図33Dでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所でのタップジェスチャ3350fを検出する。
As shown in FIG. 33D, in response to detecting the tap gesture 3350e, the
図33Eに示すように、タップジェスチャ3350fを検出したことに応答して、デバイス600は、第3のカメラセンサから異なる視野を有する第1のカメラセンサに切り替えることにより、ライブプレビュー630のズームレベルを、図33Dの1×ズームレベルから2×ズームレベルに更新する。タップジェスチャ3350fを検出したことに応答して、デバイス600はまた、ズームアフォーダンス2622を更新する。具体的には、デバイス600は、選択されているものとして1×ズームアフォーダンス2622b及び2×ズームアフォーダンス2622cの表示を更新する(例えば、図33Bに関連して上述した(decreased)ようなものと同様の技術を使用して)。加えて、タップジェスチャ3350fを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を維持する(例えば、0.5×ズームアフォーダンス2622aは、未選択のままである)。図33Eでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所での追加のタップジェスチャ3350gを検出する。
As shown in FIG. 33E, in response to detecting the
図33Fに示すように、タップジェスチャ3350gを検出したことに応答して、デバイス600は、ズームアフォーダンス2622及びライブプレビュー630のズームレベルを更新するのをやめる。図33Eにおいて、ライブプレビュー630は、2×ズームレベルで表示され続ける。ここで、1×ズームアフォーダンス2622b上のタップジェスチャの検出とは異なり(例えば、図35B〜図35Dに記載される)、デバイス600は、2×ズームアフォーダンス2622c上の追加のタップに応答して、複数のズームレベルでライブプレビュー630を表示しない。したがって、デバイス600が、2×ズームアフォーダンス2622cがズームレベルを循環させることができないズームアフォーダンスのタイプであると判定するので、デバイス600は、ジェスチャ3350gを検出したことに応答して、ライブプレビュー630のズームレベルを更新するのをやめる。しかしながら、デバイス600が、0.5×ズームアフォーダンス2622cがズームレベルを循環させることができるズームアフォーダンスのタイプである(例えば、1×ズームアフォーダンス2622bなど)と判定したので、デバイス600は、ジェスチャ3350gを検出したことに応答して、ライブプレビュー630のズームレベルを更新した。
As shown in FIG. 33F, in response to detecting the
図33F〜図33Oは、より多くのズームアフォーダンスのうちの1つの上でのスワイプジェスチャ又はプレスホールドジェスチャに応答して、調整可能なズームコントロールを表示し、かつ調整可能なズームコントロールに向けられたジェスチャを検出したことに応答して、ライブプレビューのズームレベルを変更するデバイス600を示す。図33Fでは、デバイス600は、2×ズームアフォーダンス2622cに対応する場所での上向きスワイプジェスチャ3550h(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。代わりに、デバイス600デバイスは、2×ズームアフォーダンス2622cに対応する場所でのプレスアンドホールドジェスチャを検出する。
33F-33O display an adjustable zoom control in response to a swipe or press hold gesture on one of the more zoom affordances and are directed to the adjustable zoom control. A
図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328を表示し、かつズームアフォーダンス2622の表示を停止する。調整可能なズームコントロール3328は、図33Gにおいて、ズームアフォーダンス2622が図33Fに以前に表示された場所を覆う。いくつかの実施形態では、デバイス600は、カメラディスプレイ領域604の底部から、図33Gに表示されるカメラディスプレイ領域604内の位置にスライドする、調整可能なズームコントロール3328のアニメーションを表示することにより、調整可能なズームコントロール3328は表示する。
As shown in FIG. 33G, in response to detecting the
図33Gに示すように、調整可能なズームコントロール3328は、仮想的に回転可能な車輪又はダイヤルを模倣する回転可能なユーザインタフェースである。調整可能なズームコントロール3328は、ズームインジケーション3328a1及び複数のティックマークを含み、各ティックマークは、異なるズームレベルに対応する。調整可能なズームコントロール3328上の各ティックマークは、一部と等しい距離ではない。図3328に示すように、調整可能なズームコントロール3328は、各々が第1の距離だけ離れて表示される第1の1組のティックマーク(例えば、1×ズームインジケータ3328bの下のティックマーク)及び各々が第2の距離だけ離れて表示される第2の1組のティックマーク(例えば、1×ズームインジケータ3328bの上のティックマーク)を含む。調整可能なズームコントロール3328は、1×ズームインジケータ3328b、2×ズームインジケータ3328c、及び3×レベルインジケータ3328dを更に含み、これは、1×ズームレベル、2×ズームレベル、及び3×ズームレベルにそれぞれ対応する、調整可能なズームコントロール3328上にティックマーク(又は位置)が位置する。
As shown in FIG. 33G, the
図33Gに示すように、上向きスワイプジェスチャ3350h(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、2×ズームインジケータ3328cで標識されたティックマークに対応する、調整可能なズームコントロール3328上の位置にズームインジケーション3328a1を表示する。ここで、デバイス600は、実質的に調整可能なズームコントロール3328の中心にある位置で、2×ズームインジケータ3328cと位置合わせされたズームインジケーション3328a1を表示する。換言すれば、調整可能なズームコントロール3328が最初に表示されると、デバイス600は、ライブプレビュー630の現在のズームレベル(例えば、2×ズームレベル)に対応する調整可能なズームコントロール上の位置(例えば、中央位置)にズームインジケーション3328a1を表示する。更には、デバイス600は、選択されているものとして2×ズームインジケータ3328cを表示することによって、2×ズームレベルが選択されることを表示する。いくつかの実施形態では、調整可能なズームコントロール3328が最初に表示されると(又は調整可能なズームコントロール3328が表示された後の第1の時点で)、デバイス600は、ズームアフォーダンス2622のそれぞれに対応するズームインジケータを同時に表示する。図33Gでは、デバイス600は、ズームコントロール3328に対応する場所での右向きスワイプジェスチャ3350iを検出する。
As shown in FIG. 33G, in response to detecting an
図33Gに示すように、右向きスワイプジェスチャ3350iを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ3350iの大きさに基づいて、調整可能なズームコントロール3328を時計方向に回転する。デバイス600が調整可能なズームコントロール3328を回転させると、デバイス600は、調整可能なズームコントロール3328上のティックマークを、それらが以前に表示された位置に対して時計方向である位置に動かす。更に、右向きスワイプジェスチャ3350iを検出したことに応答して、デバイス600は、2×ズームインジケータ3328cを、1.7×ズームインジケータ3328eに置き換え、かつ実質的に調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を維持する。それにより、図33Gにおいて、デバイス600は、1.7×ズームインジケータ3328eと位置合わせされているようにズームインジケーション3328a1を表示し、デバイス600は、選択されているものとして1.7×ズームインジケータ3328eを表示する。図33Hでは、デバイス600は、ズームコントロール3328に対応する第2の場所での右向きスワイプジェスチャ3350iのリフトオフを検出する。
As shown in FIG. 33G, in response to detecting the
図33Iに示すように、右向きスワイプジェスチャ3350iのリフトオフを検出した後の第1の時間において、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつ0.5×ズームアフォーダンス2622a及び2×ズームアフォーダンス2622cを、図33Fにそれらが以前に表示された場所で再表示する。しかしながら、デバイス600は、1×ズームアフォーダンス2622bの表示を停止し、かつ1.7×ズームアフォーダンス2622iを、図33Fにおいて1×ズームアフォーダンス2622bの以前に表示された場所に表示する。これは、少なくとも調整可能なズームコントロールが1.7×ズームレベルに設定されているためであり、1.7×ズームレベルは、ズームアフォーダンスを置き換えるためのズームレベルの範囲の間(例えば、1×と2×との間などの所定の範囲)にある。1.7×ズームアフォーダンス2622jはまた、選択されているものとして表示される(図33Bにおいて2×ズームアフォーダンス2622c関連して上述したように)。ズームアフォーダンスを表示することにに加えて、デバイス600はまた、ライブプレビュー630のズームレベルを、1.7×ズームレベルに更新する。いくつかの実施形態では、デバイス600は、右向きスワイプジェスチャ3350iを検出したことに応答して、及び右向きスワイプジェスチャ3350iのリフトオフを検出する前に、ライブプレビュー630のズームレベルを更新する。図33Iでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所でのタップジェスチャ3350jを検出する。
As shown in FIG. 33I, at the first time after detecting the lift-off of the
図33Jに示すように、タップジェスチャ3350jを検出したことに応答して、デバイス600は、ライブプレビュー630のズームレベルを0.5×ズームレベルに更新する。更に、タップジェスチャ3350jを検出したことに応答して、デバイス600は、ライブプレビュー630がデフォルトズームレベル(例えば、ズームアフォーダンス2622のうちの1つに対応するズームレベル)で表示されるため、1.7×ズームアフォーダンス2622jの表示を、2×ズームアフォーダンス2622hで置き換える。図33Jに示すように、デバイス600はまた、図33Cにおいてライブプレビュー630が0.5×ズームレベルで表示されたとき、カメラユーザインタフェースを表示することに関連して上述したものと同様の技術を使用して、カメラユーザインタフェースを更新する。図33Jでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所での上向きスワイプジェスチャ3350kを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する場所でのプレスアンドホールドジェスチャを検出する。
As shown in FIG. 33J, in response to detecting the
図33Kに示すように、上向きスワイプジェスチャ3350k(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328の中心の位置にズームインジケーション3328a1を表示する。上向きスワイプジェスチャ3350kが検出される直前に、ライブプレビュー630が0.5×ズームレベルで表示されたため、デバイス600は、0.5×ズームインジケータ3328aと位置合わせされたズームインジケーション3328a1を表示する。更には、デバイス600は、カメラユーザインタフェース及びデバイス600がカメラユーザインタフェースを表示することに関連して使用された0.5×ズームレベルが選択されるときの調整可能なズームコントロール3328及び2×ズームレベルが図33Gにおいて選択されたときの調整可能なズームコントロール3328を表示するのと同様の技術を使用する。図33Kでは、デバイス600は、ズームコントロール3328に対応する場所での左向きスワイプジェスチャ3350lを検出する。
As shown in FIG. 33K, in response to detecting an
図33Lに示すように、ズームコントロール3328に対応する場所で左向きスワイプジェスチャ3350lを検出したことに応答して、デバイスは、左向きスワイプジェスチャ3350lの大きさに基づいて、調整可能なズームコントロール3328を反時計方向に回転する。調整可能なズームコントロール3328を回転させた後、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。更には、デバイス600は、デバイス600が、図33Hにおいて右向きスワイプジェスチャ3350iを検出したことに応答して、カメラユーザインタフェースを表示することに関連して使用された、左向きスワイプジェスチャ3350lを検出したことに応答して、カメラユーザインタフェースを表示するのと同様の技術を使用する。図33Lでは、デバイス600は、左向きスワイプジェスチャ3350lのリフトオフを検出し、かつ左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間(例えば、デバイス600が調整可能なズームコントロール3328の表示を停止する時間に対応する時間)の前に、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の場所に対応する場所に、タップジェスチャ3350mを検出する。
As shown in FIG. 33L, in response to detecting a leftward swipe gesture 3350l at a location corresponding to the
図33Mに示すように、左向きスワイプジェスチャ3350lのリフトオフを検出した後の第1の時間の前に、タップジェスチャ3350mを検出したことに応答して、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつ複数のズームアフォーダンス2622を再表示する。更には、デバイス600はまた、上述したようなものと同様の技術を使用して、1×ズームレベルでライブプレビュー630を表示する。図33Iとは対照的に、図33Mは、デバイス600がどのように調整可能なズームコントロール628の表示を停止し、かつジェスチャのリフトオフを検出した後の第1の時間まで待機する前に、調整可能なズームコントロール628上に設定されたズームレベルでライブプレビュー630を表示するかの例を示す。図33Mでは、デバイスは、0.5×ズームアフォーダンス2622aに対応する場所での上向きスワイプジェスチャ3350nを検出する。あるいは、デバイス600デバイスは、0.5×ズームアフォーダンス2622aに対応する場所でのプレスアンドホールドジェスチャを検出する。
As shown in FIG. 33M, the
図33Nに示すように、0.5×ズームアフォーダンス2622aに対応する場所で、上向きスワイプジェスチャ3350n(又はプレスアンドホールドジェスチャ)を検出したことに応答して、デバイス600は、調整可能なズームコントロール3328上の中心位置で、1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示し、かつズームアフォーダンス2622の表示を停止する。ここで、図33Nでは、デバイス600は、上向きスワイプジェスチャ3350nが検出される直前に、ライブプレビュー630が1×ズームレベルで表示されたため(例えば、カメラユーザインタフェース及び/又はライブプレビュー630の現在表示されているズームレベル)、ズームレベルではなく1×ズームインジケータ3328bと位置合わせされているようにズームインジケーション3328a1を表示する。図33Nでは、デバイス600は、ズームコントロール3328の外側及びカメラディスプレイ領域604内の場所に対応する場所に、タップジェスチャ3350oを検出する。
As shown in FIG. 33N, in response to detecting an
図33Oに示すように、タップジェスチャ3350oを検出した後に、デバイス600は、調整可能なズームコントロール3328の表示を停止し、かつズームアフォーダンス2622を再表示する。図33Oでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのデピンチジェスチャ3350pを検出する。
As shown in FIG. 33O, after detecting the tap gesture 3350o, the
図33Pに示すように、デピンチジェスチャ3350pを検出したことに応答して、デバイス600は、デピンチジェスチャ3350pの大きさに基づいて、2.2×ズームレベルでライブプレビュー630を表示する。加えて、デピンチジェスチャ3350pを検出したことに応答して、デバイス600は、2×ズームアフォーダンス2622cの表示を、2.2×ズームアフォーダンス2622gの表示に置き換え、ここで、2.2×ズームアフォーダンス2622gが、選択されているものとして表示されて、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。ここで、デバイス600は、2.2×ズームレベルがズームアフォーダンスを置き換えるためのズームレベルを上回る(例えば、2×を上回る)であるため、2×ズームアフォーダンス2622cを、2.2×ズームアフォーダンス2622gに置き換える。図31Bに示すように、デピンチジェスチャ3150aを検出したことに応答して、デバイス600は、更に、選択されているものとして2.2×ズームアフォーダンス2622gを表示して、ライブプレビュー630が2.2×ズームレベルで表示されることを示す。図33Pでは、デバイス600は、カメラディスプレイ領域604に対応する場所でのピンチジェスチャ3350qを検出する。
As shown in FIG. 33P, in response to detecting the
図33Qに示すように、ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、ピンチジェスチャ3550qの大きさに基づいて、0.9×ズームレベルでライブプレビュー630を表示する。加えて、ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、0.5×ズームアフォーダンス2622aの表示を、0.9×ズームアフォーダンス2622dの表示に置き換える。ここで、デバイス600は、0.9×ズームレベルがズームアフォーダンスを置き換えるための閾値ズームレベル(例えば、1×)を下回るため、0.5×ズームアフォーダンス2622aを、0.9×ズームアフォーダンス2622dに置き換える。ズームレベルが2×ズームレベルをもはや上回らないため、デバイス600はまた、2.2×ズームアフォーダンス2622gを、2×ズームアフォーダンス2622cに置き換える。ピンチジェスチャ3350qを検出したことに応答して、デバイス600は、更に、選択されているものとして0.9×ズームアフォーダンス2622dを表示して、ライブプレビュー630が0.9×ズームレベルで表示されることを示す。
As shown in FIG. 33Q, in response to detecting the
図34A〜図34Bは、いくつかの実施形態による電子デバイスを使用してズームレベルを変更するための方法を示すフロー図である。方法3400は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3400のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
34A-34B are flow diagrams illustrating methods for changing the zoom level using electronic devices according to some embodiments.
後述するように、方法3400は、ユーザインタフェースのズームレベルを変更するための直感的な仕方を提供する。この方法は、ユーザインタフェースのズームレベルを変更する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にズームレベルを変更することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
後述するように、方法3400は、キャプチャされたメディアを編集するための直感的な仕方を提供する。この方法は、メディアを編集する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアを編集することを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス(例えば、タッチ感知ディスプレイ)及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、第1のズームレベル(例えば、.5×、1×、2×)で表示された1つ以上のカメラの視野の少なくとも一部分の第1の表現(例えば、630)を含むカメラユーザインタフェースを表示する(3402)。カメラユーザインタフェースは、複数のズーミングアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。複数のズームアフォーダンスは、第1のズームアフォーダンス(例えば、2622b)(例えば、選択可能ユーザインタフェースオブジェクト)及び第2のズームアフォーダンス(例えば、2622)(例えば、選択可能ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、ズームアフォーダンスは、1つ以上のカメラの視野の表現の少なくとも一部分上に重ねて表示される。異なるズームレベルに対応する複数のズームアフォーダンスを表示することにより、ユーザが表示表現のズームレベルを変更するために必要とされる入力の数を低減する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御オプションを提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 An electronic device (eg, 600) includes a display device (eg, a touch-sensitive display) and one or more cameras (eg, a front camera, a rear camera) on the same or different side of the electronic device. (For example, dual camera, triple camera, quad camera, etc.). The electronic device is a first representation (eg, eg) of at least a portion of the field of view of one or more cameras displayed at a first zoom level (eg, .5x, 1x, 2x) through a display device. Display the camera user interface including 630) (3402). The camera user interface includes a plurality of zooming affordances (eg, 2622) (eg, selectable user interface objects). The plurality of zoom affordances include a first zoom affordance (eg, 2622b) (eg, selectable user interface object) and a second zoom affordance (eg, 2622) (eg, selectable user interface object). In some embodiments, the zoom affordance is overlaid on at least a portion of the field of view representation of one or more cameras. By displaying multiple zoom affordances that correspond to different zoom levels, the number of inputs required by the user to change the zoom level of the display representation is reduced. By providing additional control options without cluttering the UI with the additional controllers displayed, the user-device interface is enhanced (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
複数のズーミングアフォーダンスを表示している間に、電子デバイスは、複数のアフォーダンスのうちの1つに向けられた第1のジェスチャ(例えば、3350c〜3350g)(例えば、タップ)を受信する(3404)(例えば、検出する)。 While displaying multiple zooming affordances, the electronic device receives a first gesture (eg, 3350c-3350g) (eg, tap) directed at one of the plurality of affordances (3404). (For example, detect).
第1のジェスチャを受信したことに応答して(3406)、及び第1のジェスチャが第1のズームアフォーダンス(例えば、2622b)(例えば、特定のズームレベル(例えば、第2のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350c)であるという判定に従って(3410)、電子デバイスは、第2のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第2の表現(例えば、630)を表示する(3412)(例えば、第1のズームレベルで表示するように、カメラユーザインタフェースを更新する)。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving the first gesture (3406), and the first gesture corresponds to a first zoom affordance (eg, 2622b) (eg, a particular zoom level (eg, a second zoom level)). According to the determination (3410) that the gesture (eg, 3350c) is directed towards an affordance), the electronic device has one or more at a second zoom level (eg, .5x, 1x, 2x). Display a second representation (eg, 630) of at least a portion of the camera's field of view (3412) (eg, update the camera user interface to display at the first zoom level). It provides the user with feedback on changes in the zoom level of the updated representation for a particular zoom affordance by dynamically updating the representation display to a particular zoom level when a particular zoom affordance is selected. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
第1のジェスチャを受信したことに応答して(3410)、及び第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャ(例えば、3350f)であるという判定に従って(3416)、電子デバイスは、第3のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第3の表現(例えば、630)を表示する(3418)(例えば、第2のズームレベルで表示するように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第3のズームレベルは、第1のズームレベル及び第2のズームレベルとは異なる。特定のズームアフォーダンスが選択されると表現の表示を特定のズームレベルに動的に更新することによって、特定のズームアフォーダンスに対する更新された表現のズームレベルの変化についてのフィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving the first gesture (3410), and the first gesture is directed towards a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)). According to the determination that the gesture was made (eg, 3350f) (3416), the electronic device is at least in the field of view of one or more cameras at a third zoom level (eg, .5x, 1x, 2x). Display a third representation of a portion (eg, 630) (3418) (eg, update the camera user interface to display at the second zoom level). In some embodiments, the third zoom level is different from the first zoom level and the second zoom level. It provides the user with feedback on changes in the zoom level of the updated representation for a particular zoom affordance by dynamically updating the representation display to a particular zoom level when a particular zoom affordance is selected. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1のジェスチャが第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って(3410)、電子デバイスは、第2のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622c)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)の視覚特性を変更する(3414)(例えば、第1のズームアフォーダンスの現在の視覚特性を、第1のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, according to the determination that the first gesture is a gesture directed to a first zoom affordance (3410), the electronic device responds to a second zoom affordance (eg, 3350c). Maintaining the visual characteristics of the
いくつかの実施形態では、第1のジェスチャが第2のズームアフォーダンス(例えば、特定のズームレベル(例えば、第3のズームレベル)に対応するアフォーダンス)に向けられたジェスチャであるという判定に従って(3416)、電子デバイスは、第1のズームアフォーダンス(例えば、3350fに応答して、図35Eの2622b)の視覚特性を維持し(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更しない)、第2のズームアフォーダンス(例えば、3350fに応答して、図35Eの2622c)の視覚特性を変更する(3420)(例えば、第2のズームアフォーダンスの現在の視覚特性を、第2のズームアフォーダンスの新しい視覚特性に更新する、置き換える)(例えば、視覚特性(例えば、色、テキスト、太さ、不透明度、ハイライト)を変更する)。いくつかの実施形態では、第1のズームアフォーダンスの視覚特性及び第2のズームアフォーダンスの視覚特性は、視覚特性のタイプ(例えば、例えば、色、テキスト、太さ、不透明度、ハイライト)である。いくつかの実施形態では、視覚特性は、以前に選択されたズームアフォーダンスから新しいズームアフォーダンスに動かされる(例えば、選択された1×を示すズームアフォーダンス及び未選択の0.5を示すズームアフォーダンス、並びに第1のジェスチャを検出したことに応答して、1を示す1×を示したズームアフォーダンス及び.5×を示す5を示したズームアフォーダンス(例えば、「x」は、アフォーダンス間を動く)。いくつかの実施形態では、テキストのサイズは、選択されたアフォーダンスのズームレベルで変更する(例えば、0.5×アフォーダンスが選択されるときのテキストのサイズは、1×アフォーダンスが選択されるときのテキストのサイズよりも小さい)(例えば、ズームレベルがより大きいと、より大きなテキストを有する)。他のズームアフォーダンスの視覚特性を維持している間にズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the first gesture is a gesture directed to a second zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a third zoom level)) (3416). ), The electronic device maintains the visual characteristics of the first zoom affordance (eg, 2622b in FIG. 35E in response to 3350f) (eg, color, text, thickness, opacity, high). (Light) is not changed), the visual characteristics of the second zoom affordance (eg, 2622c in FIG. 35E in response to 3350f) are changed (3420) (eg, the current visual characteristics of the second zoom affordance). Update or replace with new visual characteristics for the second zoom affordance (eg, change visual characteristics (eg, color, text, thickness, opacity, highlights)). In some embodiments, the visual characteristics of the first zoom affordance and the visual characteristics of the second zoom affordance are the types of visual characteristics (eg, color, text, thickness, opacity, highlight). .. In some embodiments, visual properties are moved from a previously selected zoom affordance to a new zoom affordance (eg, a zoom affordance indicating a selected 1x and a zoom affordance indicating an unselected 0.5, and In response to the detection of the first gesture, a zoom affordance indicating 1x indicating 1 and a zoom affordance indicating 5 indicating 5x (for example, "x" moves between affordances). In that embodiment, the size of the text changes at the zoom level of the selected affordance (eg, the size of the text when 0.5 × affordance is selected is 1 × the text when affordance is selected). (For example, larger zoom levels have larger text). Selected by updating the visual properties of the zoom affordance while preserving the visual properties of the other zoom affordances. Provides users with feedback on the current state of the zoom affordance, and the zoom affordance is selected, and the electronic device currently represents the representation at a zoom level that supports zoom affordance and does not support other zoom affordances. Provide users with visual feedback to indicate that they are viewing. By providing users with improved visual feedback, they can improve the usability of the device (eg, operate / interact with the device). Makes the user-device interface more efficient (by assisting the user in providing proper input when doing so and reducing user errors), plus allowing the user to use the device faster and more efficiently. By doing so, it reduces power consumption and improves the battery life of the device.
いくつかの実施形態では、第1のズームアフォーダンスの視覚特性を変更することの一部として、第1のサイズから第2のサイズへの第1のズームアフォーダンス(例えば、3350cに応答して、図35Bの2622b)のサイズを変更する(例えば、増加させる)ことのうちの1つ以上を含む。いくつかの実施形態では、第1のズームアフォーダンスの第2のサイズは、第2のズームアフォーダンスの現在のサイズ(例えば、3350cに応答して、図35Bの2622c)(例えば、第2のズームアフォーダンスが現在表示されているサイズ)とは異なり、第1のズームアフォーダンスの色を第1の色から第2の色へと変更している。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1のサイズは、第2のズームアフォーダンスの現在のサイズと同じサイズである。いくつかの実施形態では、電子デバイスは、第1のサイズから第1のサイズとは異なる第2のサイズへと第1のズームアフォーダンスのサイズを増加させる。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of changing the visual properties of the first zoom affordance, the first zoom affordance from the first size to the second size (eg, in response to 3350c, is shown in the figure. 2622b) of 35B includes one or more of resizing (eg, increasing). In some embodiments, the second size of the first zoom affordance is the current size of the second zoom affordance (eg, 2622c in FIG. 35B in response to 3350c) (eg, the second zoom affordance). Is different from the currently displayed size), the color of the first zoom affordance is changed from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (eg, the color in which the second zoom affordance is currently displayed). In some embodiments, the first size of the first zoom affordance is the same size as the current size of the second zoom affordance. In some embodiments, the electronic device increases the size of the first zoom affordance from a first size to a second size that is different from the first size. By updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, it provides the user with feedback on the current state of the selected zoom affordance, and the zoom affordance is selected and electronic. It provides the user with visual feedback that the device is currently displaying the representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスの色を第1の色から第2の色に変更する。いくつかの実施形態では、第1のズームアフォーダンスの第2の色は、第2のズームアフォーダンスの現在の色とは異なる(例えば、第2のズームアフォーダンスが現在表示されている色)。いくつかの実施形態では、第1のズームアフォーダンスの第1の色は、第2のズームアフォーダンスの現在の色と同じ色である。いくつかの実施形態では、電子デバイスは、第1の色から第1の色とは異なる第2の色へと第1のズームアフォーダンスの色を変更する。他のズームアフォーダンスの視覚特性とは異なるようにズームアフォーダンスの視覚特性を更新することにより、選択されたズームアフォーダンスの現在の状態についてのフィードバックをユーザに提供し、並びにズームアフォーダンスが選択され、及び電子デバイスが、ズームアフォーダンスに対応し、かつ他のズームアフォーダンスに対応していないズームレベルで表現を現在表示していることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the electronic device changes the color of the first zoom affordance from the first color to the second color. In some embodiments, the second color of the first zoom affordance is different from the current color of the second zoom affordance (eg, the color in which the second zoom affordance is currently displayed). In some embodiments, the first color of the first zoom affordance is the same color as the current color of the second zoom affordance. In some embodiments, the electronic device changes the color of the first zoom affordance from a first color to a second color that is different from the first color. By updating the visual properties of the zoom affordance to be different from the visual properties of other zoom affordances, it provides the user with feedback on the current state of the selected zoom affordance, and the zoom affordance is selected and electronic. It provides the user with visual feedback that the device is currently displaying the representation at a zoom level that supports zoom affordances and does not support other zoom affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第2のズームレベル(例えば、.5×、1×、2×)で1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示している(例えば、第1のズームレベルで表示されるようにカメラユーザインタフェースを更新する)間に、電子デバイスは、第1のズームアフォーダンスに向けられた第2のジェスチャを受信する。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応答して、及び第1のズームアフォーダンスが第1のそれぞれの基準(例えば、2622b)を満たすという判定に従って、電子デバイスは、第4のズームレベル(例えば、.5×、1×、2×)で、1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示する(例えば、第1のズームレベルで表示されるように、カメラユーザインタフェースを更新する)。いくつかの実施形態では、第1のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができるアフォーダンスのタイプであると満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の場所(例えば、中心場所)上に表示される。特定のアフォーダンス上の複数の入力を受信したことに応答して、表現を異なるズームレベルに更新することにより、ユーザインタフェースを雑然とさせることなく、あるズームアフォーダンスが電子デバイスのズームレベル間で変更できるように、デバイスの追加のコントロールを提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, a second zoom level (eg, .5x, 1x, 2x) displays a second representation of at least a portion of the field of view of one or more cameras (eg, a second). While updating the camera user interface to be displayed at a zoom level of 1), the electronic device receives a second gesture directed to the first zoom affordance. In some embodiments, in response to receiving a second gesture directed at the first zoom affordance (eg, 3350d, 3550g), and the first zoom affordance is the first criterion (eg, 3350d, 3550g). For example, according to the determination that 2622b) is satisfied, the electronic device makes a fourth representation of at least a portion of the field of view of one or more cameras at a fourth zoom level (eg, .5x, 1x, 2x). Display (eg, update the camera user interface to display at the first zoom level). In some embodiments, each of the first criteria comprises one or more criteria that are satisfied that the zoom affordance is a type of affordance that can circulate the zoom level, and the zoom affordance is a plurality of zoom affordances. Is displayed at a specific position (eg, center position), and the zoom affordance is displayed at a specific location (eg, center location) on the camera user interface. By updating the representation to different zoom levels in response to receiving multiple inputs on a particular affordance, one zoom affordance can be changed between the zoom levels of the electronic device without cluttering the user interface. As such, it provides additional control for the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1のズームアフォーダンスに向けられた第2のジェスチャ(例えば、3350d、3550g)を受信したことに応答して、及び第1のズームアフォーダンスが第2のそれぞれの基準(例えば、2622c)を満たすという判定に従って、電子デバイスは、第4のズームレベルで、1つ以上のカメラの視野の少なくとも部分の第4の表現を表示するのをやめ、かつ第2のズームレベル(例えば、以前のズームレベル)で、1つ以上のカメラの視野の部分の第2の表現の表示を維持する(例えば、ズームレベルを変更しない)。いくつかの実施形態では、第2のそれぞれの基準は、ズームアフォーダンスがズームレベルを循環させることができないアフォーダンスのタイプであると満たされる1つ以上の基準を含み、ズームアフォーダンスは、複数のズームアフォーダンスの特定の位置(例えば、中心位置でない、中心位置の左又は右、最左端又は最右端のズームアフォーダンス)に表示され、ズームアフォーダンスは、カメラユーザインタフェース上の特定の場所(例えば、中心の左又は右)上に表示される。特定のアフォーダンス上で複数の入力を受信したことに応答して、表現を異なるズームレベルに更新するのをやめることにより、アフォーダンスが複数のズームレベルに進むために使用されることができず、かつあるズームレベルのみに関連付けられていることをユーザが迅速に判定する視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a second gesture directed at the first zoom affordance (eg, 3350d, 3550g), and the first zoom affordance is the second criterion (eg, 3350d, 3550g). For example, according to the determination to satisfy 2622c), the electronic device ceases to display the fourth representation of at least a portion of the field of view of one or more cameras at the fourth zoom level, and the second zoom level (2). For example, the previous zoom level) maintains the display of the second representation of the field of view portion of one or more cameras (eg, does not change the zoom level). In some embodiments, each of the second criteria comprises one or more criteria that are satisfied that the zoom affordance is a type of affordance in which the zoom level cannot be circulated, and the zoom affordance is a plurality of zoom affordances. Appears at a particular location (eg, not at the center, left or right of the center, leftmost or rightmost zoom affordance), and the zoom affordance is at a particular location on the camera user interface (eg, left or right of the center). Right) Displayed above. By stopping updating the representation to different zoom levels in response to receiving multiple inputs on a particular affordance, the affordance cannot be used to advance to multiple zoom levels, and It provides visual feedback that allows the user to quickly determine that it is associated only with a certain zoom level. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1のジェスチャは、第1のタイプのジェスチャ(例えば、タップ)である。いくつかの実施形態では、電子デバイスは、第1のズームアフォーダンスに向けられた第3のジェスチャ(例えば、3350h)を受信する。いくつかの実施形態では、第3のジェスチャは、ジェスチャの第1のタイプ(例えば、タップ)とは異なる第2のタイプのジェスチャ(例えば、プレスアンドホールドジェスチャ又は上スワイプジェスチャ)である。いくつかの実施形態では、第1のズームアフォーダンスに向けられた第3のジェスチャを受信したことに応答して、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3328)(例えば、スクロールホイール、スライダ)を表示する。いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールは、第1の現在表示されている表現の現在のズームレベルの第1のインジケーション(例えば、図33Iの3328a1)を含む。いくつかの実施形態では、コントロールは、視覚表現(例えば、コントロール上の第1及び第2のズームレベル(又は複数のアフォーダンス内の各アフォーダンスに対応する他のズームレベル)のテキストインジケーション((例えば、.5×、1×、2×)))を有する。アイコンに向けられたタップジェスチャに関連付けられた動作を実行することないが、ユーザがアフォーダンスに向かうスワイプ又は長いプレスジェスチャを提供すると、表現のズームレベルを変更するコントロールを表示することにより、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつユーザが選択されたズームアフォーダンスに対応しないズームレベルで表現を表示できないことをユーザが同時に認識できるようにすることによって、デバイスの更なるコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the first gesture is a first type of gesture (eg, tap). In some embodiments, the electronic device receives a third gesture (eg, 3350h) directed at the first zoom affordance. In some embodiments, the third gesture is a second type of gesture (eg, press and hold gesture or top swipe gesture) that is different from the first type of gesture (eg, tap). In some embodiments, the electronic device changes the zoom level of the first currently displayed representation in response to receiving a third gesture directed to the first zoom affordance (a control that changes the zoom level of the first currently displayed representation ( For example, 3328) (eg, scroll wheel, slider) is displayed. In some embodiments, the control that changes the zoom level of the first currently displayed representation is the first indication of the current zoom level of the first currently displayed representation (eg, FIG. 33I). 3328a1) is included. In some embodiments, the control is a text indication of a visual representation (eg, a first and second zoom level on the control (or another zoom level corresponding to each affordance in a plurality of affordances) (eg,). , .5 × 1 × 2 ×)))). When the user provides a swipe towards affordance or a long press gesture without performing the action associated with the tap gesture directed at the icon, the user intends by displaying a control that changes the zoom level of the expression. By helping to avoid performing actions without, and allowing the user to simultaneously recognize that the representation cannot be displayed at a zoom level that does not correspond to the selected zoom affordance. Provides control to the user. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示している間に、電子デバイスは、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)(例えば、調整可能なコントロールに向けられたスワイプ又はドラッグジェスチャ)を受信する。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャを受信したことに応答して、電子デバイスは、ズームレベルを変更するコントロール上に第5のズームレベルの第2のインジケーション(例えば、図33Hの3328a1)(例えば、特定のズームレベルが選択されるインジケーション)を表示し、かつ第5のズームレベルで、1つ以上のカメラの視野の第4の表現(例えば、630)を表示する。いくつかの実施形態では、第1のインジケーションは、表示を停止される。いくつかの実施形態では、第1のインジケーションは、現在表示されている表現の現在のズームレベルの位置から第5のズームレベルへ動く。いくつかの実施形態では、第4の表現を、以前に表示表現の表示に置き換える。 In some embodiments, the electronic device is directed to a fourth gesture directed at the control that changes the zoom level while displaying the control that changes the zoom level of the first currently displayed representation. For example, 3350i) (eg, a swipe or drag gesture directed at an adjustable control) is received. In some embodiments, in response to receiving a fourth gesture directed at a control that changes the zoom level, the electronic device has a second zoom level on the control that changes the zoom level. (Eg, 3328a1 in FIG. 33H) (eg, an indication in which a particular zoom level is selected), and at a fifth zoom level, a fourth representation of the field of view of one or more cameras (eg, For example, 630) is displayed. In some embodiments, the first indication is stopped displaying. In some embodiments, the first indication moves from the position of the current zoom level of the currently displayed representation to the fifth zoom level. In some embodiments, the fourth expression is previously replaced by the display of the display expression.
いくつかの実施形態では、第1の現在表示されている表現のズームレベルの第1のインジケーション(例えば、3328a1)は、第1の現在表示されている表現のズームレベルを変更するコントロール上の選択されたズームレベルに対応する位置(例えば、中央位置)に表示される。いくつかの実施形態では、ズームレベルを変更するコントロールに向けられたジェスチャが受信されるとき、新しいズームレベルは、選択されたズームレベルに対応する位置に表示され、かつ現在(例えば、以前に)選択されたズームレベルのズームレベルは、現在表示されている表現のズームレベルを変更するコントロール上の別の位置に表示される。現在表示されている表現のズームレベルを変更するコントロールを、現在表示されている表現のズームレベルで更新することであって、ズームレベルは、ズームコントロール上の所定の位置に表示される、更新することにより、ユーザは、現在表示されている表現のズームレベルを迅速に判定することができ、かつ現在表示されている表現の現在のズームレベルを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first indication of the zoom level of the first currently displayed representation (eg, 3328a1) is on the control that changes the zoom level of the first currently displayed representation. It is displayed at the position corresponding to the selected zoom level (for example, the center position). In some embodiments, when a gesture directed to a control that changes the zoom level is received, the new zoom level is displayed at the position corresponding to the selected zoom level and is now (eg, previously). The zoom level of the selected zoom level is displayed at a different position on the control that changes the zoom level of the currently displayed representation. To update the control that changes the zoom level of the currently displayed representation with the zoom level of the currently displayed representation, the zoom level is displayed at a predetermined position on the zoom control. This allows the user to quickly determine the zoom level of the currently displayed representation and provides the user with visual feedback indicating the current zoom level of the currently displayed representation. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3328)は、回転可能なユーザインタフェース要素(例えば、仮想的に回転可能な車輪又はダイヤル)である。 In some embodiments, the control that changes the zoom level of the first currently displayed representation (eg, 3328) is a rotatable user interface element (eg, a virtually rotatable wheel or dial). be.
いくつかの実施形態では、電子デバイスは、第1の現在表示されている表現のズームレベルを変更するコントロール(例えば、3228)(例えば、スクロールホイール、スライダ)を表示し、複数のズームアフォーダンス(例えば、2622)の表示を、第1の現在表示されている表現のズームレベルを変更するコントロールの表示に置き換えること(例えば、又は表示を停止すること)を含む。ズームレベルアフォーダンスを、ズームアフォーダンスを変更するコントロールに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつ追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができず、及び拡張されたコントロールを提供する(例えば、ズームアフォーダンスよりも大きいズームレベルに変化することができる)ことをユーザが同時に認識できるようにすることによって、デバイスのより多くのコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device displays controls (eg, 3228) (eg, scroll wheels, sliders) that change the zoom level of the first currently displayed representation, and multiple zoom affordances (eg, eg). , 2622) includes replacing (or stopping the display) with the display of a control that changes the zoom level of the first currently displayed representation. By replacing the zoom level affordance with a control that changes the zoom affordance, it helps the user avoid performing actions unintentionally, and zooms without cluttering the UI with additional zoom affordances. By allowing the user to simultaneously recognize that affordances cannot be used and that they provide extended control (eg, they can change to a zoom level higher than the zoom affordance). Provides users with a lot of control. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第3のジェスチャ(例えば、3350h)は、第1の方向への移動を含む(例えば、第1の方向に向けられる)。いくつかの実施形態では、第4のジェスチャ(例えば、3350i)は、第1の方向(例えば、第2の方向は、第1の方向に対して相対的に直角な、反対側でない、及び/又は平行ではない)とは異なる第2の方向への移動を含む(例えば、第2の方向に向けられる)。 In some embodiments, the third gesture (eg, 3350h) involves moving in a first direction (eg, pointing in a first direction). In some embodiments, the fourth gesture (eg, 3350i) is in the first direction (eg, the second direction is relatively perpendicular to the first direction, not on the opposite side, and / Includes movement in a second direction that is different from (or not parallel) (eg, directed in a second direction).
いくつかの実施形態では、ズームレベルを変更するコントロールに向けられた第4のジェスチャ(例えば、3350i)を受信した後に、電子デバイスは、第4のジェスチャのリフトオフを検出する。いくつかの実施形態では、第4のジェスチャのリフトオフを検出した後に、及び所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないという判定に従って、電子デバイスは、ズームレベルを変更するコントロールの表示を停止する。いくつかの実施形態では、所定の時間枠内でズームレベルを変更するコントロールに向けられたジェスチャがないという判定に従って、電子デバイスは、ズームレベルを変更するコントロールの表示をやめる又は停止する。ズームアフォーダンスを変更するコントロールを、ズームレベルアフォーダンスに置き換えることによって、ユーザが意図せずに動作を実行することを回避するのを手助けし、かつ追加のズームアフォーダンスでUIを雑然とさせることなく、ズームアフォーダンスを使用することができ、及び表現の追加の表示を提供することをユーザが同時に認識できるようにすることによって、デバイスのより多くのコントロールをユーザができる。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device detects a lift-off of the fourth gesture after receiving a fourth gesture (eg, 3350i) directed at a control that changes the zoom level. In some embodiments, the electronic device changes the zoom level after detecting a lift-off of the fourth gesture and according to the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame. Stop displaying controls. In some embodiments, the electronic device stops or stops displaying the control that changes the zoom level, depending on the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame. Replacing the control that changes the zoom affordance with a zoom level affordance helps prevent the user from performing unintentional actions, and zooms without cluttering the UI with additional zoom affordances. By allowing affordances to be used and simultaneously recognizing that the user provides an additional display of expressions, the user has more control over the device. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1の現在表示されている表現のズームレベルを変更するコントロールを表示することの一部として、電子デバイスは、調整可能なコントロール上に複数の視覚インジケータ(例えば、図3Lの3228a〜c)(例えば、複数のインジケータの第1の視覚インジケータは、調整可能なコントロール上の第1の位置に表示され、複数の視覚インジケータの第2の視覚インジケータは、調整可能なコントロール上の第1の位置とは異なる調整可能なコントロール上の第2の位置に表示される)を同時に表示する。いくつかの実施形態では、ズームアフォーダンスに対応する複数のズームレベル(例えば、2622)のそれぞれ(例えば、複数の視覚インジケータの異なる対応する視覚インジケータによって表される(例えば、第1のズームアフォーダンスは、第1のインジケータによって表される、第2のズームアフォーダンスは、第2のインジケータによって表される)、複数のズームアフォーダンス(例えば、第1のズームアフォーダンス及び第2のズームアフォーダンス)のそれぞれに対応する各ズームレベル(例えば、第1のズームアフォーダンスの第2のズームレベル、第2のズームアフォーダンスの第3のズームレベル)。いくつかの実施形態では、複数の視覚インジケータのそれぞれは、他の視覚インジケータ(例えば、固有のテキスト(例えば、0.5×、1×、2×)、色、サイズ)とは異なる固有の視覚特性を有する。ズームレベルを調整するコントロール上にズームアフォーダンスのズームレベルを表示することにより、ズームアフォーダンスに関連する現在のズームレベルについてのフィードバックをユーザに提供し、かつズームレベルがズームアフォーダンスとともに変化されると、表現のうちのより多くが表示されるように、コントロールを使用することなく、ユーザが現在表示されている表現のズームレベルを変更することができることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as part of displaying a control that changes the zoom level of the first currently displayed representation, the electronic device has multiple visual indicators (eg, diagrams) on the adjustable control. 3L 3228a-c) (eg, the first visual indicator of the plurality of indicators is displayed in the first position on the adjustable control, and the second visual indicator of the plurality of visual indicators is the adjustable control. (Displayed in a second position on the adjustable control that is different from the first position above) is displayed at the same time. In some embodiments, each of the plurality of zoom levels (eg, 2622) corresponding to the zoom affordance (eg, the first zoom affordance is represented by different corresponding visual indicators of the plurality of visual indicators). The second zoom affordance, represented by the first indicator, corresponds to each of a plurality of zoom affordances (eg, a first zoom affordance and a second zoom affordance). Each zoom level (eg, a second zoom level of a first zoom affordance, a third zoom level of a second zoom affordance). In some embodiments, each of the plurality of visual indicators is another visual indicator. It has unique visual characteristics that are different from the unique text (eg, 0.5x, 1x, 2x), color, size). Display the zoom level of the zoom affordance on the control that adjusts the zoom level. Use the controls to provide the user with feedback about the current zoom level associated with the zoom affordance, and to display more of the representation as the zoom level changes with the zoom affordance. Provide the user with visual feedback indicating that the user can change the zoom level of the currently displayed representation without having to operate the device by providing the user with improved visual feedback. Improves sexuality and makes the user-device interface more efficient (for example, by assisting the user in providing appropriate input when manipulating / interacting with the device and reducing user error). In addition, it reduces power usage and improves device battery life by allowing users to use the device faster and more efficiently.
いくつかの実施形態では、第1のジェスチャを受信したことに応答して、及び第1のジェスチャが複数のズーミングアフォーダンス(例えば、3350b)のうちの少なくとも1つに向けられておらず、表現の第1の部分に向けられているという判定に従って、電子デバイスは、第1のジェスチャの場所に焦点を合わせるように、電子デバイスを構成する(及び任意選択的に、第1のジェスチャの場所で1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定が設定される)。 In some embodiments, in response to receiving a first gesture, and the first gesture is not directed to at least one of a plurality of zooming affordances (eg, 3350b), the expression. According to the determination that it is directed to the first portion, the electronic device configures the electronic device to focus on the location of the first gesture (and optionally 1 at the location of the first gesture). One or more other camera settings, such as exposure or white balance, are set based on the field of view characteristics of one or more cameras).
いくつかの実施形態では、第1のジェスチャを受信したことに応答して、及び第1のジェスチャが複数のズーミングアフォーダンスのうちの少なくとも1つに向けられておらず、表現(例えば、3350a)の第2の部分に向けられているという判定に従って、電子デバイスは、第1のジェスチャの場所に焦点を合わせるように、電子デバイスを構成するのをやめる(及び任意選択的に、第1のジェスチャの場所で1つ以上のカメラの視野の特性に基づいて、露出又はホワイトバランスなどの1つ以上の他のカメラ設定が設定するのをやめる)。いくつかの実施形態では、第2の部分は、第2の領域内に表示される。いくつかの実施形態では、第2の領域は、第1の領域から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、第2の領域は、第1の領域と比較して、暗色外観を有する。いくつかの実施形態では、第2の領域は、カメラユーザインタフェース内の第1の領域の上方及び/又は下方に位置する。 In some embodiments, in response to receiving the first gesture, and the first gesture is not directed to at least one of the plurality of zooming affordances, the representation (eg, 3350a). According to the determination that it is directed to the second part, the electronic device ceases to configure the electronic device to focus on the location of the first gesture (and optionally, of the first gesture. Stop setting one or more other camera settings such as exposure or white balance based on the field of view characteristics of one or more cameras in place). In some embodiments, the second part is displayed within the second area. In some embodiments, the second region is visually distinguished from the first region (eg, has a dark appearance) (eg, half over the second portion of the field of view of one or more cameras). Has a transparent overlay). In some embodiments, the second region has a darker appearance as compared to the first region. In some embodiments, the second region is located above and / or below the first region within the camera user interface.
いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第2の表現は、1つ以上のカメラのうちの第1のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180b)(例えば、第1のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、1つ以上のカメラの視野の少なくとも一部分の第3の表現は、1つ以上のカメラのうちの第2のカメラの視野の少なくとも一部分の表現である(例えば、図31の3180c)(例えば、第2のタイプのカメラ(例えば、異なる幅の異なるレンズを有するカメラ(例えば、超広角、広角、望遠写真カメラ))。いくつかの実施形態では、第1のカメラは、第2のカメラとは異なる(例えば、第1のタイプのカメラは、第2のタイプのカメラとは異なる;第1のカメラのレンズは、キャプチャする(例えば、又は第2のカメラのレンズとは異なる幅の少なくとも1つの画像をキャプチャできる(例えば、キャプチャするように構成された))。 In some embodiments, the second representation of at least a portion of the field of view of one or more cameras is a representation of at least a portion of the field of view of the first camera of the one or more cameras (eg, FIG. 31). 3180b) (eg, first type cameras (eg, cameras with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto cameras)). In some embodiments, of one or more cameras. The third representation of at least a portion of the field of view is a representation of at least a portion of the field of view of the second camera of one or more cameras (eg, 3180c in FIG. 31) (eg, a second type of camera (eg, a second type of camera). For example, a camera with different lenses of different widths (eg, ultra-wide-angle, wide-angle, telephoto camera). In some embodiments, the first camera is different from the second camera (eg, the first camera). A type of camera is different from a second type of camera; the lens of the first camera can capture (eg, or at least one image of a different width than the lens of the second camera). It was configured to capture)).
いくつかの実施形態では、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することの一部として、電子デバイスは、第2のズームレベルが第6のズームレベル(例えば、0.5×ズームレベル)であるという判定に従って(及び/又は1つ以上のカメラの視野の部分が第1のタイプのカメラの視野の一部分であるという判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ))、第1の視覚外観(例えば、半透明の、第2の視覚外観よりも不透明度が低い)を有する第2の表現の一部分(例えば、領域604)を表示し、第2のズームレベルが第6のズームレベルとは異なる第7のズームレベルであるという判定に従って(及び/又は1つ以上のカメラの視野の部分が第1のタイプのカメラとは異なる第2のタイプのカメラの視野の一部分であるという判定に従って(例えば、第2のタイプのカメラよりも広いレンズ(例えば、超広角レンズ)を有するカメラ)(例えば、第1のタイプのカメラよりも狭いレンズ(例えば、望遠写真)を有するカメラ))、第1の視覚外観とは異なる第2の視覚外観(例えば、グレーアウト、ブラックアウト、第1の視覚外観よりも高い不透明度)を有する第2の表現の一部分(例えば、領域602及び606)を表現する。いくつかの実施形態では、電子デバイスは、第2のズームレベルで、1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示し、図29A〜図29Pで上述された方法/技術及び図30A〜図30Cで論じられた方法3000のうちの1つ以上に基づいて、第2の表現を表示することを含む)。
In some embodiments, as part of displaying a second representation of at least a portion of the field of view of one or more cameras at the second zoom level, the electronic device has a second zoom level of sixth. According to the determination that the zoom level of (eg, 0.5 × zoom level) is (and / or that a portion of the field of view of one or more cameras is part of the field of view of a first type camera (eg, of example). A second having a wider lens (eg, a camera with an ultra-wide angle lens) than a second type camera), a first visual appearance (eg, translucent, less opaque than a second visual appearance). Display a portion of the representation of 2 (eg, region 604) and according to the determination that the second zoom level is a seventh zoom level different from the sixth zoom level (and / or the field of view of one or more cameras). According to the determination that the portion is part of the field of view of a second type camera different from the first type camera (eg, a camera having a wider lens (eg, ultra-wide angle lens) than the second type camera). ) (Eg, a camera with a narrower lens (eg, a telephoto) than the first type of camera), a second visual appearance (eg, grayout, blackout, first) that is different from the first visual appearance. It represents a portion of a second representation (eg,
いくつかの実施形態では、複数のズームアフォーダンスは、第3のズームアフォーダンス(例えば、特定のズームレベル(例えば、第9のズームレベル)に対応するアフォーダンス)を含む。いくつかの実施形態では、第1、第2、及び第3のズームアフォーダンスは、異なるズームレベルに対応する(例えば、第1、第2、及び第3のズームアフォーダンスの選択により、異なる表現を表示させ、各表現は、異なるズームレベルを有する)。いくつかの実施形態では、電子デバイスは、第2の現在表示されている表現のズームレベルを変更する要求を受信する。いくつかの実施形態では、電子デバイスは、ピンチ又はデピンチジェスチャを検出することにより、現在表示されている表現のズームレベルを変更する要求を受信し、かつ調整可能なズームコントロールの選択を検出する。いくつかの実施形態では、第2の現在表示されている表現のズームレベルを第8のズームレベルに変更する要求(例えば、3350i、3350p、3350q)を受信したことに応答して、電子デバイスは、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×〜1×(例えば、1×未満)などの範囲)内にあるという判定に従って、第1のズームアフォーダンス(例えば、2622b)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622j)の表示に(例えば、第1のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第2のズーム値範囲(例えば、1×を上回る及び2×未満の値などの第2のズーム値範囲)内にあるという判定に従って、第2のズームアフォーダンス(例えば、2622c)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622g)の表示に(例えば、第2のズームアフォーダンスの位置で)置き換え、第8のズームレベルが第3のズーム値範囲(例えば、2×を上回る)内にあるという判定に従って、第3のズームアフォーダンス(例えば、2622a)の表示を、第8のズームレベルに対応する第4のズームアフォーダンス(例えば、2622d)の表示に(例えば、第3のズームアフォーダンスの位置で)置き換える。いくつかの実施形態では、第8のズームレベルが第1のズーム値範囲(例えば、例えば、0.5×〜1×(例えば、1×などの閾値を下回る)などの範囲)内にないという判定に従って、電子デバイスは、第2又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する。いくつかの実施形態では、第2及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第2のズーム値範囲(例えば、1×〜2×)内にないという判定に従って、電子デバイスは、第1又は第3のズームアフォーダンスでないズームアフォーダンスの位置に、第2のズームアフォーダンスを表示する(又は第2のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1及び第3のズームアフォーダンスを維持する。いくつかの実施形態では、第8のズームレベルが第3のズーム値範囲(例えば、例えば、2×以上)内にないという判定に従って、電子デバイスは、第1又は第2のズームアフォーダンスでないズームアフォーダンスの位置に、第1のズームアフォーダンスを表示する(又は第1のズームアフォーダンスの表示を維持する)。いくつかの実施形態では、第1、第2、第3、及び第4のズームアフォーダンスは、互いに視覚的に異なる(例えば、テキストが異なる(例えば、0.5×、1×、1.7×、2×))。いくつかの実施形態では、第2又は第3のズームアフォーダンスを維持する。所定の条件が満たされているときにのみ、ズームアフォーダンスを、ズームアフォーダンスに置き換えることを適用することにより、ユーザは、デバイスが現在のズームレベルで表現を表示するために使用されている、カメラに対応するズームレベルを迅速に認識することができ、各アフォーダンスは、異なるカメラに対応する。デバイス600は、特定のズームレベルでメディアをキャプチャするために現在使用されており、ユーザは、ユーザが必要であればこれらのズームレベルに容易に切り替えることができるように、現在表示されている表現の現在のズームレベルの範囲内でない所定のズームレベルを迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
In some embodiments, the plurality of zoom affordances include a third zoom affordance (eg, an affordance corresponding to a particular zoom level (eg, a ninth zoom level)). In some embodiments, the first, second, and third zoom affordances correspond to different zoom levels (eg, different representations are displayed by selecting the first, second, and third zoom affordances). And each representation has a different zoom level). In some embodiments, the electronic device receives a request to change the zoom level of the second currently displayed representation. In some embodiments, the electronic device receives a request to change the zoom level of the currently displayed representation and detects an adjustable zoom control selection by detecting a pinch or depinch gesture. .. In some embodiments, the electronic device responds to a request (eg, 3350i, 3350p, 3350q) to change the zoom level of the second currently displayed representation to the eighth zoom level. , The first zoom affordance (eg, eg, less than 1x), according to the determination that the eighth zoom level is within the first zoom value range (eg, 0.5x to 1x (eg, less than 1x)). , 2622b) is replaced with a fourth zoom affordance (eg, 2622j) display corresponding to the eighth zoom level (eg, at the position of the first zoom affordance), with the eighth zoom level being the second. A second zoom affordance (eg, 2622c) is displayed according to the determination that it is within the zoom value range of (eg, a second zoom range of values greater than 1x and less than 2x). Replaced with a display of a fourth zoom affordance (eg, 2622g) corresponding to the zoom level (eg, at the position of the second zoom affordance) and an eighth zoom level with a third zoom value range (eg, 2x). According to the determination that it is within (eg,), the display of the third zoom affordance (eg, 2622a) is changed to the display of the fourth zoom affordance (eg, 2622d) corresponding to the eighth zoom level (eg, the third). Replace (at the zoom affordance position). In some embodiments, the eighth zoom level is not within the first zoom value range (eg, for example, 0.5x to 1x (eg, below a threshold such as 1x)). According to the determination, the electronic device displays the first zoom affordance (or maintains the display of the first zoom affordance) at the position of the zoom affordance that is not the second or third zoom affordance. In some embodiments, the electronic device displays the first zoom affordance. Maintain the second and third zoom affordances. In some embodiments, the electronic device is subject to determination that the eighth zoom level is not within the second zoom value range (eg, 1x-2x). A second zoom affordance is displayed (or a display of the second zoom affordance is maintained) at a position of the zoom affordance that is not the first or third zoom affordance. In some embodiments, the first and third zoom affordances are displayed. The zoom affordance of Display the first zoom affordance (or maintain the display of the first zoom affordance) at the position of the zoom affordance that is not the zoom affordance of 2. In some embodiments, the first, second, third, and The fourth zoom affordances are visually different from each other (eg, the texts are different (eg, 0.5x, 1x, 1.7x, 2x)). In some embodiments, the second or second. Maintaining a zoom affordance of 3. By applying replacing the zoom affordance with a zoom affordance only when certain conditions are met, the user can view the representation at the current zoom level on the device. Can quickly recognize the zoom level corresponding to the camera used in the affordance, each affordance corresponds to a different camera. The
方法3400に関して上述された処理(例えば、図34A〜図34B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3600、及び3800は、方法3400を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3400に関連して上述したように、1つ以上の入力に応答して、カメラユーザインタフェースのズームレベルを変更することを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 3400 (eg, FIGS. 34A-34B) are also applicable to the methods described above in a similar manner. For example,
図35A〜図35Iは、いくつかの実施形態による電子デバイスを使用してメディアキャプチャコントロールにアクセスするための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図36A〜図36Bにおける処理を含む、以下で説明される処理を例示するために使用される。 35A-35I show exemplary user interfaces for accessing media capture controls using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 36A-36B.
図35Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を表示する電子デバイス600を示す。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。いくつかの実施形態では、ライブプレビュー630は、デバイス600の上部及び/又は底部まで延びない。いくつかの実施形態では、デバイス600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、デバイス600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。
FIG. 35A shows an
図35Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。カメラディスプレイ領域604は、インジケータ又はコントロールと実質的に重ならない。この例では、ライブプレビュー630は、周囲環境内の人の肩に乗っている犬を含む。
The camera user interface of FIG. 35A includes an
図35Aに示すように、インジケータ領域602は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。インジケータ領域602は、フラッシュインジケータ602a及びモード−設定スイッチャアフォーダンス3502を含む。フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。以下で論じるように、モード−設定スイッチャアフォーダンス3502は、選択されると、デバイス600に、カメラモードアフォーダンス620の表示と、現在選択されているカメラモードの特定のカメラ設定アフォーダンス(例えば、626)の表示との間を切り替えさせる。
As shown in FIG. 35A, the
図35Aに示すように、カメラディスプレイ領域604は、ライブプレビュー630及びズームアフォーダンス2622を含み、ズームアフォーダンス2622は、0.5×ズームアフォーダンス2622a、1×ズームアフォーダンス2622b、及び2×ズームアフォーダンス2622cを含む。この例では、0.5×ズームアフォーダンス2622aが選択され、これは、0.5×ズームレベルでライブプレビュー630が表されることを示す。
As shown in FIG. 35A, the
図35Aに示すように、コントロール領域606は、ライブプレビュー630上に重ねられ、任意選択的に着色された(例えば、灰色;半透明)オーバーレイを含む。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているかを示し、ユーザがカメラモードを変更することを可能にする。図35Aにおいて、カメラモードアフォーダンス620a〜620d及び620fが表示され、「Photo」カメラモードは、カメラが動作している現在のモードとして太字のテキストで、及び/又はコントロール領域606の中央に写真カメラモードアフォーダンス620cをセンタリングすることで示される。カメラモードが現在選択されている(又は電子デバイスがカメラモードで動作している)とき、電子デバイスは、特定のカメラモードのカメラ設定を使用して、(例えば、シャッターアフォーダンス610上の入力を検出したことに応答して)メディアをキャプチャするように構成される。図35Aでは、デバイス600は、カメラディスプレイ領域604に対応する場所での上向きスワイプジェスチャ3550a(例えば、コントロール領域606からインジケータ領域602に向かう上スワイプジェスチャ)を検出する。あるいは、図35Aで、デバイス600は、インジケータ領域602内に位置する、モード−設定スイッチャアフォーダンス3502に対応する場所でタップジェスチャ3550bを検出する。
As shown in FIG. 35A, the
図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550b(例えば、モード−設定スイッチャアフォーダンス3502に対応する場所でのタップジェスチャ)を検出したことに応答して、デバイス600は、カメラディスプレイ領域604を上にシフトし、これは、ズームアフォーダンス2622を上にシフトすることを含む。デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を上にシフトする。それにより、デバイス600がカメラディスプレイ領域604を上にシフトするとき、デバイス600は、インジケータ領域602の高さの高さを低減し、かつコントロール領域606の高さを増加させる。インジケータ領域602の高さの低減に加えて、デバイス600は、フラッシュインジケータ602aの中心がモード−設定スイッチャアフォーダンス3502の中心とより位置合わせされるように、フラッシュインジケータ602aをシフトする。これを行うことにより、デバイス600は、カメラモードアフォーダンス620とカメラ設定アフォーダンス626との間で表示を切り替えている間に、インジケータ領域602内のインジケータの表示を維持する。更には、デバイス600は、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力に応答して、カメラ設定アフォーダンス626が表示され得るインジケーション)を含むことから、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力を検出したことに応答して、カメラモードアフォーダンスが表示され得るインジケーション)を表示するように、モード−設定スイッチャアフォーダンス3502を更新する。
As shown in FIG. 35B, in response to detecting an
コントロール領域606の高さを増加させることに加えて、デバイス600は、カメラモードアフォーダンス620を、第1の1組のカメラ設定アフォーダンスを含むカメラ設定アフォーダンス626に置き換える。第1の1組のカメラ設定アフォーダンスは、左から右へ、フラッシュモードコントロールアフォーダンス626a、低光モード動作コントロールアフォーダンス626g、アスペクト比コントロールアフォーダンス626c、アニメーション化された画像コントロールアフォーダンス626b、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む。デバイスが写真モードでメディアをキャプチャするように現在構成されているため、第1の1組のカメラ設定アフォーダンスが示される。いくつかの実施形態では、デバイスが写真モードではないカメラモードでメディアをキャプチャするように現在構成されているとき、第1の1組のカメラ設定アフォーダンスとは異なる第2の1組のカメラ設定アフォーダンスが示される。
In addition to increasing the height of the
図35Bに示すように、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bを検出したことに応答して、デバイス600はまた、1つ以上のカメラの視野を上にシフトする(ライブプレビュー630によって示された1つ以上のカメラの視野が維持され、かつシフトされない、図8A〜図8Bに関連して上述した例とは異なる)。それにより、デバイス600は、図35Aに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるようにシフトする。例えば、図35Aのインジケータ領域602に表示されたちょう結び3540の一部分は、図35Bのインジケータ領域602に表示される。加えて、デバイス600は、図35Aに表示されなかったいくらかの視覚部分を図35Bのディスプレイ上にシフトする。例えば、図35Aのコントロール領域606に表示されたアームパッチ3538(例えば、ハート)の一部分は、図35Bのコントロール領域606に表示される。図35Bでは、デバイス600は、デバイスが、超広角レンズを有するカメラを使用して、メディアをキャプチャするように構成されるため、いくらかの新たに表示される視覚部分をディスプレイ上に、及びいくらかの以前に表示された視覚部分をディスプレイから外れるようにシフトし、これは、0.5×ズームレベルで表示されているライブプレビュー630によって明らかである(例えば、図31A〜図31Bに関連する上記の考察を参照)。いくつかの実施形態では、デバイスが、超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されていない(例えば、デバイス600は、望遠写真レンズを使用してメディアをキャプチャするように構成される)とき、デバイス600は、デバイス600が2×ズームでメディアをキャプチャするように構成されるとき(例えば、ライブプレビュー630が図35Iのように2×ズームレベルで表示されるとき)など、いくらかの視覚部分をディスプレイ上に、及び/又はいくらかの視覚部分をディスプレイから外れるようにシフトしない。
As shown in FIG. 35B, in response to detecting an
更には、図35Bに示すように、上向きスワイプジェスチャ3550aを検出した後の第1の時点で、デバイス600は、上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出する。いくつかの実施形態では、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、上向きスワイプジェスチャ3550aのタッチ接触のリフトオフ)を検出する前に、上向きスワイプジェスチャ3550aの完了を検出する。いくつかの実施形態では、上向きスワイプジェスチャ3550aの完了は、上向きスワイプジェスチャ3550aのタッチ接触が、カメラディスプレイ領域604上の場所に対応する第1の場所からカメラディスプレイ領域604上の場所に対応する第2の場所までの閾値距離を動くと検出された後に発生し得る。
Further, as shown in FIG. 35B, at the first time point after detecting the
図35Bに示すように、デバイス600が上向きスワイプジェスチャ3550a又はタップジェスチャ3550bの完了を検出するとき、デバイス600は、デバイス600がカメラモードアフォーダンス620を、選択されたカメラモードについてのカメラ設定アフォーダンスに置き換えている(又は置き換えた)ことを示す、触知出力3560aを提供する。図35Bでは、デバイス600は、上向きスワイプジェスチャ3550aのリフトオフを検出する。
As shown in FIG. 35B, when the
図35Cに示すように、上向きスワイプジェスチャ3550aのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Cでは、デバイス600は、カメラディスプレイ領域604に対応する場所での左向きスワイプジェスチャ3550c(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。
As shown in FIG. 35C, after detecting the lift-off of the
図35Dに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、第1の1組のカメラ設定アフォーダンス(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)を、左から右へ、フラッシュモードコントロールアフォーダンス626a、f値コントロールアフォーダンス626f、フィルタコントロールアフォーダンス626e、及びタイマーコントロールアフォーダンス626dを含む、第2の1組のカメラ設定アフォーダンスに置き換える。図35Dに示すように、第1の1組のカメラ設定アフォーダンスを、第2の1組のカメラ設定アフォーダンスに置き換える際に、デバイス600は、アニメーションを表示し、デバイス600は、カメラディスプレイ領域604に着色された(例えば、灰色;半透明)オーバーレイを重ね合わせ、ライブプレビュー630及び/又はディスプレイを暗くするか、及び/又はディスプレイ(ライブプレビュー630を含む)をぼかす。更には、図35Dでは、デバイス600は、第2の1組のカメラ設定アフォーダンス内にない第1の1組のカメラ設定アフォーダンスからの1つ以上のカメラ設定アフォーダンス(例えば、図35Cに示されたカメラ設定アフォーダンス626g、626c、626b)を暗色化、ぼかし、及び/又は収縮し得る。デバイス600は、第1の1組のカメラ設定アフォーダンス内になかった第2の1組のカメラ設定アフォーダンス(例えば、f値コントロールアフォーダンス626f)内にある、1つ以上のアフォーダンスを表示する(例えば、フェードイン又は成長する)。
As shown in FIG. 35D, in response to detecting the
図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、第2の1組のカメラ設定アフォーダンスを動かし、これにより、第2の1組のカメラ設定アフォーダンスは、ディスプレイの比較的中心に位置する。第2の1組のカメラ設定アフォーダンスが、より少ない数のアフォーダンスを含むため、フラッシュモードコントロールアフォーダンス626a及びタイマーコントロールアフォーダンス626dは、例えば、図35Cに各々がそれぞれ表示された位置よりもディスプレイの中心に近い位置に表示される。図35Eでは、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、ポートレートカメラモード、及びしたがって、ポートレートメディアをキャプチャする設定に対応する(又はポートレートカメラモードに従う).第2の1組のカメラ設定アフォーダンスでメディアをキャプチャするように構成される。いくつかの実施形態では、デバイス600が別のモード(例えば、ビデオモード)でメディアをキャプチャするように構成されるとき、高ダイナミックレンジイメージングカメラ設定アフォーダンスなどの、1つ以上の追加のアフォーダンスが表示される。
As shown in FIG. 35E, in response to detecting the
図35Aに戻ると、写真カメラモードアフォーダンス620cは、中心にされ、かつ選択され、ポートレートモードアフォーダンス620dは、選択されず、かつ写真カメラモードアフォーダンス620cの右側に隣接して表示される。それにより、図8E〜図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、図35Aにおけるデバイス600上の左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600に、中心にされ、かつ選択されたようなポートレートモードアフォーダンス620d及び未選択であり、かつポートレートモードアフォーダンス620dの左に表示されたような写真カメラモードアフォーダンス620cを表示させる。更には、図8E〜図8Hにおいて左スワイプジェスチャ850gに関連して上述されたように、左向きスワイプジェスチャ(例えば、ジェスチャ3550cに類似)は、デバイス600を、ポートレートカメラモードで構成させる。それゆえ、デバイス600は、デバイス600がカメラモードアフォーダンス620(例えば、図8E〜図8H)又はカメラ設定アフォーダンス626(例えば、35C〜35E)を現在表示しているかどうかにかかわらず、左向き又は右向きスワイプジェスチャに応答して、メディアをキャプチャするように構成されるカメラモードに切り替える。更には、デバイス600が、左向き又は右向きスワイプジェスチャに応答して、メディアをキャプチャするように構成されるカメラモードに切り替えるとき、アフォーダンスのタイプ(例えば、カメラモードアフォーダンス620又はカメラ設定アフォーダンス626)は、ディスプレイ上に表示され続ける。換言すれば、左向き又は右向きスワイプジェスチャを検出する直前に、デバイス600がカメラモードアフォーダンス620を表示する場合、デバイス600は、左向き若しくは右向きスワイプジェスチャに応答して、カメラモードアフォーダンス620を、カメラ設定アフォーダンス626に置き換えず、又は逆もまた同様である。更には、同じ大きさの左又は右ジェスチャは、カメラモードアフォーダンス620が選択された現在のカメラモードアフォーダンス(例えば、写真モードアフォーダンス620c)で表示されるとき、又は選択されたモード(例えば、写真モード)に対応するカメラ設定アフォーダンス626(例えば、カメラ設定アフォーダンス626a、626g、626c、626e、及び626d)が表示されるときに、デバイス600が左又は右ジェスチャを受信するかどうかと同じ新しいモード(例えば、ポートレートモード)でメディアをキャプチャするようにデバイスを構成する。
Returning to FIG. 35A, the photographic
図35Eに示すように、左向きスワイプジェスチャ3550cを検出したことに応答して、デバイス600は、インジケータ領域602内の訂正された1組のインジケータ、更新されたライブプレビュー630、及び更新されたコントロール領域606を表示する。訂正された1組のインジケータは、以前に表示されたフラッシュインジケータ602a及び新たに表示されたf値インジケータ602eを含む。更には、現在選択されている、ズームアフォーダンス2622aは、ズームアフォーダンス2622b及び2622cがカメラディスプレイ領域604内で表示を停止される間、左にシフトされた。更には、デバイス600は、カメラディスプレイ領域604内のズームアフォーダンス2622aの右に、照明効果コントロール628(アクティブ化されると、照明効果を変更することができる)を表示する。図35Eの更新されたライブプレビュー630は、図35Cのライブプレビュー630と比較して、異なる視覚効果を提供する。例えば、35Eの更新されたライブプレビュー630は、ボケ効果及び/又は照明効果を提供するのに対し、図35Cのライブプレビュー630は、ボケ効果及び/又は照明効果を提供しない。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更により、ライブプレビュー630内のオブジェクトのズームは変化する。いくつかの実施形態では、カメラモード(写真モード対ポートレートモード)の変更にかかわらず、ライブプレビュー630内のオブジェクトのズームは変化しない。図35Eでは、デバイス600は、カメラディスプレイ領域604に対応する場所での下向きスワイプジェスチャ3550d(例えば、インジケータ領域602からコントロール領域606に向かう下スワイプジェスチャ)を検出する。あるいは、図35Eで、デバイス600は、インジケータ領域602内に位置する、モード−設定スイッチャアフォーダンス3502に対応する場所でタップジェスチャ3550eを検出する。
As shown in FIG. 35E, in response to detecting the
図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応答して、デバイス600は、図35Bに示されたカメラユーザインタフェースの上シフトを反転してシフトする。具体的には、デバイス600は、カメラディスプレイ領域604のサイズ及びアスペクト比を維持している間に、カメラディスプレイ領域604を下にシフトする。それにより、デバイス600がカメラディスプレイ領域604を下にシフトするとき、デバイス600は、インジケータ領域602の高さを増加させ、図35Aに示される元のそれらの元の高さに戻るようにコントロール領域606の高さを減少させる。インジケータ領域602の高さを増加させることに加えて、デバイス600は、下向き矢印(例えば、カメラユーザインタフェースが下にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力を検出したことに応答して、カメラモードアフォーダンスが表示され得るインジケーション)を含むことから、上向き矢印(例えば、カメラユーザインタフェースが上にシフトされ得るインジケーション、又はモード−設定スイッチャアフォーダンス3502上での入力に応答して、カメラ設定アフォーダンス626が表示され得るインジケーション)を表示するように、モード−設定スイッチャアフォーダンス3502を更新する。コントロール領域606の高さを減少させることに加えて、デバイス600は、カメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換える。デバイス600がポートレートカメラモードでメディアをキャプチャするように構成されるため、デバイス600は、左にシフトされたポートレートカメラモードアフォーダンス620dを表示し、ここで、ポートレートカメラモード620dが、選択され、かつ中心にされるように表示され、及び写真カメラモード620c(例えば、図35Aに以前に選択された)が、ポートレートカメラモード620dの右に、選択されずに表示される。
As shown in FIG. 35F, in response to detecting the
図35Fに示すように、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eを検出したことに応答して、デバイス600はまた、1つ以上のカメラの視野を下にシフトする。それにより、デバイス600は、図35Eに表示されたいくらかの視覚部分を図35Bのディスプレイから外れるように/ディスプレイ上にシフトする。例えば、図35Eに表示されなかったインジケータ領域602内のちょう結び3540の一部分は、図35Fに表示され、図35Eに表示されたパッチ3538の一部分は、図35Fに表示されない。同様に、図35Bに関連して上述したように、デバイスが超広角レンズを有するカメラを使用してメディアをキャプチャするように構成されているため、デバイス600は、いくらかの視覚部分をディスプレイ上に、及びいくらかの視覚部分をディスプレイ上に/から外れるようにシフトする。
As shown in FIG. 35F, the
更には、図35Fに示すように、下向きスワイプジェスチャ3550dを検出した後の第1の時点で、デバイス600は、下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出する。いくつかの実施形態では、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフ(例えば、デバイス600のタッチ感知面を使用する、下向きスワイプジェスチャ3550dのタッチ接触のリフトオフ)を検出する前に、下向きスワイプジェスチャ3550dの完了を検出する。いくつかの実施形態では、下向きスワイプジェスチャ3550dの完了は、下向きスワイプジェスチャ3550dのタッチ接触が、カメラディスプレイ領域604上の場所に対応する第1の場所からカメラディスプレイ領域604上の場所に対応する第2の場所までの閾値距離を動くと検出された後に発生し得る。
Further, as shown in FIG. 35F, at the first time point after detecting the
図35Fに示すように、デバイス600が下向きスワイプジェスチャ3550d又はタップジェスチャ3550eの完了を検出するとき、デバイス600は、デバイス600がカメラ設定アフォーダンス626を、カメラモードアフォーダンス620に置き換えている(又は置き換えた)ことを示す、触知出力3560bを提供する。図35Fでは、デバイス600は、下向きスワイプジェスチャ3550dのリフトオフを検出する。
As shown in FIG. 35F, when the
図35Gに示すように、下向きスワイプジェスチャ3550dのリフトオフを検出した後に、デバイス600は、触知出力をもはや提供しない。図35Gでは、デバイス600は、0.5×ズームアフォーダンス2622aに対応する場所でのタップジェスチャ3550gを検出する。
As shown in FIG. 35G, after detecting the lift-off of the
図35Hに示すように、タップジェスチャ3550gを検出したことに応答して、デバイス600は、(例えば、第1のカメラセンサから異なる視野を有する第2のカメラセンサにカメラセンサを切り替えることにより)2×ズームレベルにライブプレビュー630のズームを更新し、かつ2×の現在のズームを示すように、ズームアフォーダンス2622を更新する。デバイス600は、図8N〜図8Pのジェスチャ850o、850p、及び850qに関連して記載されたものと同様の技術を使用して、タップジェスチャ3550gに応答する。図35Hでは、デバイス600は、カメラディスプレイ領域604に対応する場所での右向きスワイプジェスチャ3550h(例えば、左から右にカメラディスプレイ領域604を横切って動くスワイプジェスチャ)を検出する。
As shown in FIG. 35H, in response to detecting 3550 g of tap gesture, the device 600 (eg, by switching the camera sensor from the first camera sensor to a second camera sensor with a different field of view) 2 Update the zoom of the
図35Iに示すように、右向きスワイプジェスチャ3550hを検出したことに応答して、デバイス600は、右向きスワイプジェスチャ3550hの大きさに基づいて、カメラモードアフォーダンス620を右にシフトする。ここで、デバイス600は、写真モードアフォーダンス620cが未選択で、かつビデオモードアフォーダンス620bの右に留まる間に、ビデオモードアフォーダンス620bが選択され、かつ中心にされるように、右向きスワイプジェスチャ3550hがカメラモードアフォーダンス620を右にシフトするのに十分な大きさを有することを検出する。それにより、写真モードアフォーダンス620cは、右向きスワイプジェスチャ3550hの大きさのため、選択されないようにスキップされる。それにより、デバイス600は、ビデオメディアをキャプチャするように(又はビデオモードに従って)構成され、デバイスがポートレートメディアの代わりに、ビデオメディアをキャプチャするように構成されるため、デバイス600は、照明効果コントロール628の表示を停止する。更には、右向きスワイプジェスチャ3550hを検出したことに応答して、デバイス600は、ズームアフォーダンス2622(例えば、アフォーダンス2622a、2622b、及び2622c)を再表示し、ここで、ライブプレビュー630が0.5×ズームレベルで表示されるため、0.5×ズームアフォーダンス2622aが選択される。
As shown in FIG. 35I, in response to detecting the
図36A〜図36Bは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3600は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3600のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
36A-36B are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments.
後述するように、方法3600は、電子デバイスを使用してメディアキャプチャコントロールにアクセスするための直感的方法を提供する。この方法は、メディアコントロールにアクセスする際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的にメディアコントロールにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイス及び1つ以上のカメラ(例えば、電子デバイスの同じ側又は異なる側(例えば、前カメラ、後カメラ)に1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クアッドカメラなど))を含む。電子デバイスは、表示デバイスを介して、カメラユーザインタフェースを表示する(3602)。カメラユーザインタフェースは、カメラディスプレイ領域(例えば、602)を含む(例えば、同時に表示する)。カメラディスプレイ領域は、1つ以上のカメラの視野の表現及びカメラコントロール領域(例えば、606)を含む。カメラユーザインタフェースはまた、カメラコントロール領域を含み、カメラコントロール領域は、第1の場所(例えば、画像キャプチャアフォーダンス(例えば、アクティブ化されると、電子デバイスに、カメラディスプレイ領域内に表示されたコンテンツの画像をキャプチャさせるシャッターアフォーダンス)の上の場所)で、1つ以上のカメラの異なる動作モードを示す、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を含む。いくつかの実施形態では、複数のカメラモード(例えば、ビデオ、写真、ポートレート、スローモーション、パノラマモードのうちの2つ以上の)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に行われる後処理を含む)モード(例えば、ポートレートモード)の複数の値(例えば、各設定の光のレベル)を有する対応する複数の設定(例えば、ポートレートカメラモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、カメラモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさないモードとは異なるか、又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まない。いくつかの実施形態では、カメラモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、静止写真モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形モードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、秒コマ数キャプチャ速さ)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアのメディアをキャプチャし、ポートレートモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、輪郭光)の量、f値、ぼかし)を有する第5のタイプ(例えば、ポートレート写真(例えば、ぼかしをかけた背景を有する写真))のメディアをキャプチャし、パノラマモードで動作するように電子デバイスが構成されている場合、電子デバイスの1つ以上のカメラは、特定の設定(例えば、ズーム、移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、モード間の切り替え時、視野の表現の表示は、モードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、電子デバイスが静止写真モードで動作している間、この表現は、矩形モードであり、電子デバイスが正方形モードで動作している間、この表現は、正方形である)。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第1のモードでメディアをキャプチャするように構成される。 An electronic device (eg, 600) is a display device and one or more cameras (eg, dual cameras, triples) on the same or different side of the electronic device (eg, front camera, rear camera). Cameras, quad cameras, etc.)) are included. The electronic device displays the camera user interface via the display device (3602). The camera user interface includes a camera display area (eg, 602) (eg, displaying at the same time). The camera display area includes a representation of the field of view of one or more cameras and a camera control area (eg, 606). The camera user interface also includes a camera control area, which is a first location (eg, an image capture affordance (eg, when activated, on an electronic device, of content displayed within the camera display area). A first plurality of camera mode affordances (eg, 620) (eg, selectable user interface objects) (eg, selectable user interface objects) that indicate different operating modes of one or more cameras at a location above the shutter affords that capture the image. Includes, affordance to select different camera modes (eg slow motion, video, photo, portrait, square, panorama, etc.). In some embodiments, multiple camera modes (eg, two or more of video, photo, portrait, slow motion, panorama modes) allow the camera (eg, camera sensor) to capture the media. Corresponding multiple settings (eg, ports) that have multiple values (eg, the light level of each setting) of a working mode (including post-processing that is done automatically after capture) (eg, portrait mode). About rate camera mode: Has studio lighting settings, contour lighting settings, stage lighting settings). In this way, for example, the camera mode is different from the mode that does not affect how the camera behaves when capturing media, or multiple settings (eg, multiple values (eg, non-). Does not include flash mode) with one setting that has active, active, automatic). In some embodiments, camera modes allow the user to capture different types of media (eg, photos or videos), optimizing the settings for each mode, and specifying specific characteristics (eg, shapes (eg, shapes)). For example, it is possible to capture a particular type of media (eg, via post-processing) that corresponds to a particular mode with speed (eg, slow motion, over time), audio, video) (square, rectangle). can. For example, if the electronic device is configured to operate in still photo mode, one or more cameras in the electronic device will have certain settings (eg, flash settings, one or more filter settings) when activated. ) Is captured and the electronic device is configured to operate in square mode, one or more cameras of the electronic device are activated. And the electronic device is configured to capture a second type of media (eg, a square photo) with specific settings (eg, flash settings and one or more filters) and operate in slow motion mode. If so, one or more cameras in the electronic device, when activated, have a third type of media (eg, slow motion video) with certain settings (eg, flash settings, number of frames per second capture speed). When an electronic device is configured to capture media and operate in portrait mode, one or more cameras in the electronic device may have certain settings (eg, certain types of light (eg, stage light, etc.)). Captures media of a fifth type (eg, portrait photo (eg, photo with a blurred background)) with the amount of studio light, contour light), f value, blur) and operates in panoramic mode. When the electronic device is configured as such, one or more cameras of the electronic device have a fourth type (eg, panorama) with specific settings (eg, zoom, amount of field of view for capturing while moving). Capturing media of a photo (eg, a large photo). In some embodiments, when switching between modes, the display of the visual field representation changes to correspond to the type of media captured by the mode (eg,). , While the electronic device is operating in still photo mode, this representation is in rectangular mode, and while the electronic device is operating in square mode, this representation is square). In some embodiments. The electronic device is configured to capture media in the first mode while displaying the first plurality of camera mode affordances.
1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンス(例えば、図35Aの620)を表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する場所での)第1のジェスチャ(例えば、3350a及び/又は3350b)(例えば、タッチジェスチャ(例えば、上向きスワイプ又は下向き)、アフォーダンス(例えば、3502)上でのタップジェスチャ)を検出する(3604)。 While displaying a first plurality of camera mode affordances (eg, 620 in FIG. 35A) indicating different operating modes of one or more cameras, the electronic device is directed to the camera user interface (eg, its). First gesture (eg, 3350a and / or 3350b) (eg, touch gesture (eg, swipe up or down), affordance (eg, tap gesture on 3502)) above or correspondingly. Detect (3604).
カメラユーザインタフェースに向けられた第1のジェスチャを検出したことに応答して(3606)、電子デバイスは、第1の場所で第1の1組のカメラ設定(例えば、カメラ動作を制御する設定)アフォーダンス(例えば、図35Bの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示し(3608)、第1の場所でカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)の表示を停止する(3610)。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第1のカメラモード(例えば、620c)の画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(例えば、カメラモードアフォーダンスを、カメラ設定アフォーダンスに置き換える)(例えば、第1の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第1のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第1のアフォーダンスを含む)。ジェスチャに応答して、カメラモードでメディアをキャプチャする選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスを表示することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to detecting a first gesture directed at the camera user interface (3606), the electronic device has a first set of camera settings in a first place (eg, a setting that controls camera operation). Affordance (eg, 626 in Figure 35B) (eg, one or more selectable user interface objects) (eg, camera settings for the selected camera mode (eg, flash, timer, filter effect, f value, aspect ratio, live). Display (3608) an affordance to select or change (such as a photo) and stop displaying multiple camera mode affordances (eg, selectable user interface objects) that indicate different operating modes of the camera in the first location (3610). ). In some embodiments, the first set of camera setting affordances is a setting that adjusts the image capture of the first camera mode (eg, 620c) (eg, a control that adjusts the behavior of the image capture) (eg, a control that adjusts the behavior of the image capture). For example, replace the camera mode affordance with a camera setting affordance) (eg, a first set of camera setting affordances, when selected, gives the electronic device a first image capture setting for the first camera mode (eg, for example). , Characteristics), including the first affordance). Capture media in camera mode in response to gestures Provide users with feedback on camera settings associated with camera mode by displaying the camera setting affordances that correspond to the selected camera affordances, and one. When the above operation is performed to select the camera setting affordance, it provides the user with more control of the device by helping the user easily configure the camera mode based on the camera setting. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
第1の場所で第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)を表示している間に、及び第1のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスが構成されている(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))間に、電子デバイスは、カメラユーザインタフェースに向けられた(例えば、その上、又はそれに対応する場所での)第2のジェスチャ(例えば、3550c)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第1のジェスチャに対して相対的に直角な方向へのスワイプ)を受信する(3612)。いくつかの実施形態では、第2のジェスチャは、第1のジェスチャ.とは異なる方向(例えば、直角又は平行でない)にある。 While displaying the first set of camera setting affordances (eg, 626 in FIG. 35C) at the first location, and in the first camera mode, media (eg, one or more images, videos). When an electronic device is configured to capture (eg, by starting media capture (eg, tapping on shutter accommodation)), one or more cameras of the electronic device are electronically While (adjusting the settings that allow the device to capture media in the second camera mode)), the electronic device was pointed at the camera user interface (eg, on or where it corresponds). A second gesture (eg, 3550c) (eg, a leftward swipe, a rightward swipe, and / or a swipe in a direction relatively perpendicular to the first gesture) is received (3612). In some embodiments, the second gesture is the first gesture. In a different direction (eg, not at right angles or parallel).
カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して(3614)、電子デバイスは、第1のカメラモードとは異なる第2のカメラモード(例えば、620c)でメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(3616)(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、第1の場所で1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の場所で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する(3618)。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新すること、及び異なるモードで動作するように電子デバイスを構成することにより、ユーザが異なるモードで動作するようにメディアを構成する必要があり、かつ異なるモードに対応するカメラ設定を設定する必要がある動作の数を低減し、1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。操作を行うのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In response to receiving a second gesture directed at the camera user interface (3614), the electronic device is in media (eg, 620c) in a second camera mode (eg, 620c) that is different from the first camera mode. When an electronic device is configured to capture (one or more images, videos) (3616) (eg, by the start of media capture (eg, tapping on shutter accommodation)), the electronic device is electronic. One or more cameras on the device adjust the settings that allow the electronic device to capture media in the second camera mode) (eg, the first camera mode and the second camera mode are adjacent to each other. (For example, a second set of camera setting affordances, when selected, causes the electronic device to adjust the first image capture settings (eg, characteristics) of the second camera mode. Multiple camera mode affordances (eg, selectable user interface objects) (eg, slow motion, video, photo, port) that indicate different operating modes of one or more cameras in a first place (including). A second set of camera setting affordances (eg, 626 in Figure 35E) (eg, one or more selectable users) in a first location without displaying the affords to select rates, squares, panoramas, etc.) Interface objects) (for example, affordance to select or change camera settings (eg, flash, timer, filter effect, f-value, aspect ratio, live photo, etc.) for the selected camera mode) (3618). By updating the display of the camera settings affordances corresponding to the selected camera affordances with the display of the camera settings affordances corresponding to different modes, and by configuring the electronic device to operate in different modes, the user can use different modes. One or more actions are made to select the camera setting affordance, reducing the number of actions that need to be configured to work with and set camera settings for different modes. And by helping the user easily configure the camera mode based on the camera settings, it gives the user more control over the device. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). By helping users to make their devices more efficient (by reducing user errors), and in addition, by allowing users to use their devices faster and more efficiently, they reduce power usage and reduce device battery life. Improve. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスは、第2のカメラモードの画像キャプチャを調整する設定(例えば、画像キャプチャの動作を調整するコントロール)である(3620)(例えば、図35Eの626)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第2の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)。 In some embodiments, the second set of camera setting affordances is a setting that adjusts the image capture of the second camera mode (eg, a control that adjusts the behavior of the image capture) (3620) (eg, the control). 626 of FIG. 35E) (eg, a second set of camera setting affordances, when selected, causes the electronic device to adjust the second image capture settings (eg, characteristics) of the second camera mode. Including 2 affordances).
いくつかの実施形態では、第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)は、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)とは異なる。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにあるカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンスは、第2の1組のカメラ設定アフォーダンスにないカメラ設定アフォーダンスを含む。いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス及び第2の1組のカメラ設定アフォーダンスは、異なる数のカメラ設定アフォーダンスを有する。いくつかの実施形態では、第2の1組のカメラ設定アフォーダンスを、第1の1組のカメラ設定アフォーダンスに置き換える。選択されたカメラアフォーダンスに対応するカメラ設定アフォーダンスの表示を、異なるモードに対応するカメラ設定アフォーダンスの表示で更新することにより、カメラモードに関連付けられたカメラ設定についてのフィードバックをユーザに提供し、かつ1つ以上の動作がカメラ設定アフォーダンスを選択するように行われると、ユーザがカメラ設定に基づいてカメラモードを容易に構成するのを手助けすることにより、デバイスのより多くのコントロールをユーザに提供する。操作を行うのに必要な入力の数が減ることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the second set of camera setting affordances (eg, 626 in FIG. 35E) is different from the first set of camera setting affordances (eg, 626 in FIG. 35B). In some embodiments, the first set of camera setting affordances includes the camera setting affordances in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances includes a camera setting affordance that is not in the second set of camera setting affordances. In some embodiments, the first set of camera setting affordances and the second set of camera setting affordances have different numbers of camera setting affordances. In some embodiments, the second set of camera setting affordances is replaced with a first set of camera setting affordances. By updating the display of the camera settings affordances corresponding to the selected camera affordances with the display of the camera settings affordances corresponding to different modes, the user is provided with feedback on the camera settings associated with the camera mode, and 1 When one or more actions are taken to select a camera setting affordance, it provides the user with more control of the device by helping the user easily configure the camera mode based on the camera setting. By reducing the number of inputs required to perform an operation, the device is more user-friendly and the user-device interface (eg, to provide the appropriate input when operating / interacting with the device). By helping users to make their devices more efficient (by reducing user errors), and in addition, by allowing users to use their devices faster and more efficiently, they reduce power usage and reduce device battery life. Improve. The additional controller displayed allows additional control without cluttering the UI, which enhances the usability of the device and makes the user-device interface (eg, when manipulating / interacting with the device). Power usage of the device by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、第1の1組のカメラ設定アフォーダンス(例えば、図35Bの626)(又は第2の1組のカメラ設定アフォーダンス)は、フラッシュ設定アフォーダンス(例えば、626a)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、フラッシュ動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフラッシュ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はフラッシュ動作を設定するユーザインタフェースを表示させる、フラッシュ設定アフォーダンス)、画像キャプチャ設定アフォーダンス(例えば、626b)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、アニメーション化された画像(例えば、動画(例えば、静止画像(複数可)及び/又はビデオ))をキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された画像キャプチャ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はアニメーション化された画像キャプチャ動作を設定するユーザインタフェースを表示させる、画像キャプチャ設定アフォーダンス(例えば、アニメーション化された画像キャプチャ設定アフォーダンス))、アスペクト比カメラ設定アフォーダンス(例えば、626c)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、特定のアスペクト比を使用してメディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたアスペクト比カメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のアスペクト比の使用のためのユーザインタフェースを表示させる、アスペクト比設定アフォーダンス)、フィルタ設定カメラ設定アフォーダンス(例えば、626e)(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、特定のフィルタを使用して、キャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示されたフィルタカメラ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、特定のフィルタの使用を設定するユーザインタフェースを表示させる、フィルタ設定アフォーダンス)、高ダイナミックレンジイメージングカメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、画像メディアをキャプチャする要求に応答して、高ダイナミックレンジをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された高ダイナミックレンジ設定アフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又はメディアをキャプチャするときに、高ダイナミックレンジイメージングを使用するユーザインタフェースを表示させる、高ダイナミックレンジ設定アフォーダンス)、及び低光カメラ設定アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、選択されると、電子デバイスに、電子デバイスが、メディアをキャプチャする要求に応答して、低光モード動作を使用して、メディアをキャプチャする状態に又は状態から変更させ(例えば、又は電子デバイスに、変化させるオプションを表示する)、表示された低光キャプチャカメラモードアフォーダンスの状態(非アクティブ、アクティブ、自動、1つ以上の文字、及び/又はカメラ設定アフォーダンスに関連付けられた画像)の表示をトグル(例えば、変化)させ、及び/又は低光キャプチャカメラモードを設定するユーザインタフェースを表示させる、低光カメラ設定アフォーダンス)のうちの1つ以上を含む。 In some embodiments, the first set of camera setting affordances (eg, 626 in FIG. 35B) (or the second set of camera setting affordances) is a flash setting affordance (eg, 626a) (eg, selection). Possible user interface objects) (eg, when selected, causes the electronic device to change from state to state to capture media using flash operation in response to a request for the electronic device to capture media (eg). For example, or on an electronic device, display options to change), the displayed flash setting affordance state (inactive, active, automatic, one or more characters, and / or the image associated with the camera setting affordance). Toggle the display (eg, change) and / or display the user interface that sets the flash behavior, flash settings affordance, image capture settings affordance (eg, 626b) (eg, selectable user interface objects) (eg, selectable user interface objects). When selected, the electronic device captures an animated image (eg, a moving image (eg, still image (s) and / or video)) in response to a request to capture the media. Change to or from state (eg, or electronic device, display options to change) and display image capture settings affordable state (inactive, active, automatic, one or more characters, and / or camera Image capture settings affordance (eg, animated images) that toggle the display of the settings affordance (eg, change) and / or display a user interface that sets the animated image capture behavior. Capture settings affordance)), aspect ratio camera settings affordance (eg, 626c) (eg, selectable user interface objects) (eg, when selected, to the electronic device, in response to a request for the electronic device to capture the media. The state of the aspect ratio camera settings afforded (inactive, Active, automatic, one or more characters, and / or camera Toggle (eg, change) the display of the camera (image associated with the camera) and / or display the user interface for the use of a particular aspect ratio when capturing the media. , Filter settings Camera settings Affordability (eg, 626e) (eg, selectable user interface objects) (eg, when selected, the electronic device receives a particular filter in response to a request for the electronic device to capture the media. Use to change to or from the state to capture (eg, or to the electronic device, display options to change) and the displayed filter camera settings affordance state (inactive, active, automatic, one or more Filters that toggle (eg, change) the display of text and / or images associated with camera settings affordance, and / or display a user interface that sets the use of specific filters when capturing media. Settings Affordance), High Dynamic Range Imaging Camera Settings Affordance (eg, selectable user interface objects) (eg, when selected, the electronic device has a high dynamic range in response to a request for the electronic device to capture image media. The state of the high dynamic range setting affordance displayed (inactive, active, automatic, one or more characters, for example, or the electronic device shows the option to change). High dynamic range settings that toggle (eg, change) the display of (and / or images associated with camera settings) and / or display a user interface that uses high dynamic range imaging when capturing media. Affordance), and low-light camera settings Affordance (eg, selectable user interface objects) (eg, when selected, the electronic device uses low-light mode operation in response to a request to capture the media. Then change to or out of state to capture the media (eg, or show the electronic device the option to change) and the displayed low light capture camera mode affordance state (inactive, active, automatic, 1). One or more characters, and / Or one of the low-light camera setting affordances) that toggles (eg, changes) the display of the camera settings affordances) and / or displays the user interface that sets the low-light capture camera mode. Including the above.
いくつかの実施形態では、電子デバイスは、第1のジェスチャ(例えば、3550a)(例えば、ドラッグジェスチャ)を検出し、カメラユーザインタフェースに向けられた第1の接触(例えば、連続的な接触)を検出することを含む。いくつかの実施形態では、第1のジェスチャを検出している間に、電子デバイスは、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了(例えば、図35Bの3550a)(例えば、第1の閾値移動又は移動をドラッグ)を検出する。いくつかの実施形態では、ジェスチャの移動が第1の閾値移動を有する(例えば、第1の距離を移動した)という判定に従って、電子デバイスは、第1のジェスチャの完了を検出する。いくつかの実施形態では、第1の接触のリフトオフを検出する前に、第1のジェスチャの完了を検出したことに応答して、電子デバイスは、触知出力(例えば、3560a)(例えば、1つ以上の触知出力生成器で生成された触覚(例えば、振動)出力)を提供する。 In some embodiments, the electronic device detects a first gesture (eg, 3550a) (eg, drag gesture) and makes a first contact (eg, continuous contact) directed at the camera user interface. Including to detect. In some embodiments, while detecting the first gesture, the electronic device completes the first gesture (eg, 3550a in FIG. 35B) before detecting the lift-off of the first contact. For example, the first threshold movement or dragging the movement) is detected. In some embodiments, the electronic device detects the completion of the first gesture according to the determination that the gesture movement has a first threshold movement (eg, has traveled a first distance). In some embodiments, in response to detecting the completion of the first gesture before detecting the lift-off of the first contact, the electronic device has a tactile output (eg, 3560a) (eg, 1). It provides a tactile (eg, vibration) output) generated by one or more tactile output generators.
いくつかの実施形態では、カメラユーザインタフェースを表示している間に、電子デバイスは、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550d)(例えば、左向きスワイプ、右向きスワイプ、及び/又は第2のジェスチャと同じ又は反対の方向へのスワイプ)を検出する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応答して、及び第3のジェスチャが検出されたときに、第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)が表示されたという判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し(例えば、(例えば、メディアキャプチャの開始(例えば、シャッターアフォーダンス上でのタップ)により)アクティブ化されると、電子デバイスの1つ以上のカメラが、電子デバイスに、第2のカメラモードでメディアをキャプチャさせるようにする設定を調整する))(例えば、第1のカメラモード及び第2のカメラモードは互いに隣接する)(例えば、第2の1組のカメラ設定アフォーダンスは、選択されると、電子デバイスに、第2のカメラモードの第1の画像キャプチャ設定(例えば、特性)を調整させる、第2のアフォーダンスを含む)、1つ以上のカメラの異なる動作モードを示す複数のカメラモードアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、異なるカメラモード(例えば、スローモーション、ビデオ、写真、ポートレート、正方形、パノラマなど)を選択するアフォーダンス)を表示することなく、第1の場所で、第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)(例えば、1つ以上の選択可能ユーザインタフェースオブジェクト)(例えば、選択されたカメラモードのカメラ設定(例えば、フラッシュ、タイマー、フィルタ効果、f値、アスペクト比、ライブフォトなど)を選択又は変更するアフォーダンス)を表示する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応答して、及び第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスが現在表示されているという判定に従って、電子デバイスは、第1の1組のカメラ設定アフォーダンス又は第2の1組のカメラ設定アフォーダンスの表示を停止する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャ(例えば、3550c又は3550h)を検出したことに応答して、及び第3のジェスチャが検出されたときに、第2の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(又は第1の1組のカメラ設定アフォーダンス)が表示されたという判定に従って、電子デバイスは、第3のカメラモードでメディア(例えば、1つ以上の画像、ビデオ)をキャプチャするように電子デバイスを構成し、かつ第3のジェスチャ(例えば、3550h)が検出されたときに、第1の複数のカメラモードアフォーダンス(例えば、図35Hの620)が表示されたという判定に従って、電子デバイスは、第2の1組のカメラ設定アフォーダンス(又は第1の1組のカメラ設定アフォーダンス)及び第3の1組のカメラ設定アフォーダンスを表示することなく、第1の場所で、カメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンス(例えば、図35I)を表示し、第1のカメラモード及び第3のカメラモードでメディアをキャプチャするように電子デバイスを構成する。いくつかの実施形態では、カメラユーザインタフェースに向けられた第3のジェスチャを受信したことに応答して、及び第1の複数のカメラモードアフォーダンスが現在表示されているという判定に従って、電子デバイスは、第1の複数のカメラモードアフォーダンスの表示を停止する。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子デバイスは、第2のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスを表示している間に、電子は、第3のモードでメディアをキャプチャするように構成される。いくつかの実施形態では、第2の複数のカメラアフォーダンスは、第1の複数のカメラモードアフォーダンスとは異なる。いくつかの実施形態では、第2の複数のカメラモードアフォーダンスは、第1の複数のカメラモードアフォーダンスにない1つ以上のアフォーダンスを含み、又は逆もまた同様である。ジェスチャに応答して、カメラモードアフォーダンスが表示されるときにカメラモードアフォーダンスを維持すること、又はカメラ設定アフォーダンスが表示されるときにカメラ設定アフォーダンスを維持することにより、入力に応答して、カメラモードアフォーダンス又はカメラ設定アフォーダンスにおける変化の視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying the camera user interface, the electronic device is directed to a third gesture (eg, 3550d) (eg, leftward swipe, rightward swipe, and / or). Swipe in the same or opposite direction as the second gesture). In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and when a third gesture is detected, a second one. According to the determination that a set of camera setting affordances (eg, 626 in FIG. 35C) (or a first set of camera setting affordances) is displayed, the electronic device is set to media (eg, one or more) in the third camera mode. When an electronic device is configured to capture a camera (image, video) (eg, by starting a media capture (eg, tapping on shutter accommodation)), one or more of the electronic devices The camera adjusts the settings that allow the electronic device to capture media in the second camera mode) (eg, the first camera mode and the second camera mode are adjacent to each other) (eg, the second A set of camera setting affordances, when selected, causes the electronic device to adjust the first image capture settings (eg, characteristics) of the second camera mode, including a second affordance), one or more. Affordance to select multiple camera mode affordances (eg, selectable user interface objects) (eg, slow motion, video, photo, portrait, square, panorama, etc.) that indicate different operating modes of the camera. ) At the first location, a third set of camera configuration affordances (eg, 626 in FIG. 35E) (eg, one or more selectable user interface objects) (eg, selected cameras). Shows the affordability to select or change the mode's camera settings (eg flash, timer, filter effect, f value, aspect ratio, live photo, etc.). In some embodiments, in response to receiving a third gesture directed at the camera user interface, and a first set of camera setting affordances or a second set of camera setting affordances is currently displayed. According to the determination, the electronic device stops displaying the first set of camera setting affordances or the second set of camera setting affordances. In some embodiments, in response to detecting a third gesture directed at the camera user interface (eg, 3550c or 3550h), and when a third gesture is detected, a second one. According to the determination that a set of camera setting affordances (eg, 626 in FIG. 35C) (or a first set of camera setting affordances) is displayed, the electronic device is set to media (eg, one or more) in the third camera mode. When the electronic device is configured to capture the image, video) and a third gesture (eg, 3550h) is detected, the first plurality of camera mode affordances (eg, 620 in FIG. 35H) According to the determination that it is displayed, the electronic device does not display the second set of camera setting affordances (or the first set of camera setting affordances) and the third set of camera setting affordances. At the location of, display a second plurality of camera mode accommodations (eg, FIG. 35I) indicating different camera operating modes of the camera, and electronic devices to capture media in the first and third camera modes. To configure. In some embodiments, the electronic device responds to the receipt of a third gesture directed at the camera user interface, and according to the determination that the first plurality of camera mode affordances are currently displayed. The display of the first plurality of camera mode affordances is stopped. In some embodiments, the electronic device is configured to capture media in the second mode while displaying the second plurality of camera mode affordances. In some embodiments, the electrons are configured to capture the media in a third mode while displaying the second plurality of camera mode affordances. In some embodiments, the second plurality of camera affordances are different from the first plurality of camera mode affordances. In some embodiments, the second plurality of camera mode affordances include one or more affordances not found in the first plurality of camera mode affordances, and vice versa. In response to a gesture, the camera mode responds to input by maintaining the camera mode affordance when the camera mode affordance is displayed, or by maintaining the camera setting affordance when the camera setting affordance is displayed. Affordance or camera settings Provide users with visual feedback of changes in affordances. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、電子デバイスは、第1の場所で、第3の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示し、第1の1組のカメラ設定アフォーダンス(例えば、図35Cの626)(例えば、又は現在表示される第2の1組のカメラ設定アフォーダンス)を置き換える、第3の1組のカメラ設定アフォーダンスのアニメーション(例えば、図35C〜図35E)を表示することを含む。いくつかの実施形態では、第3のジェスチャ(例えば、スワイプ)を検出すると、カメラ設定アフォーダンスが隠れる場合には、アニメーションは表示されない。いくつかの実施形態では、アニメーションは、1つ以上のコントロールのフェード又はフェードアウトを含む。いくつかの実施形態では、アニメーションは、1つ以上のコントロールを含み、1つ以上のコントロールは、近づくように又は更に離れるように動いて、追加のコントロールのための余地を作る、又は消失したコントロールによって以前に占有されていた空間を充填する。) In some embodiments, the electronic device displays a third set of camera setting affordances (eg, 626 in FIG. 35E) at a first location and a first set of camera setting affordances (eg, eg). Displaying a third set of camera setting affordance animations (eg, FIGS. 35C-35E) that replaces (eg, or currently displayed a second set of camera setting affordances) in FIG. 35C. including. In some embodiments, detecting a third gesture (eg, swipe) does not display the animation if the camera setting affordances are hidden. In some embodiments, the animation comprises fading or fading out one or more controls. In some embodiments, the animation comprises one or more controls, the one or more controls moving closer or further away, leaving room for additional controls or disappearing controls. Fills the space previously occupied by. )
いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第1の部分の第1の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第1のタイプのカメラ(例えば、超広角カメラ)(例えば、3180a)を介してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第2の部分(例えば、図35Aの630に表示された3540)の第2の表現を表示する。いくつかの実施形態では、視野の第2の部分は、1つ以上のカメラの視野の第1の部分(例えば、図35Bの630に表示される3540)のうちのいくらかを含まない(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイから外れてシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応答して、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of one or more cameras is the first representation of the first portion of the field of view of one or more cameras. In some embodiments, the media responds to receiving a second gesture directed at the camera user interface and via a first type of camera (eg, ultra-wide angle camera) (eg, 3180a). According to the determination that the electronic device is configured to capture, the electronic device is a second representation of a second portion of the field of view of one or more cameras (eg, 3540 displayed in 630 of FIG. 35A). Is displayed. In some embodiments, the second portion of the field of view does not include some of the first portion of the field of view of one or more cameras (eg, 3540 displayed in 630 of FIG. 35B) (eg, 3540). A portion of the field of view of one or more cameras is shifted off the display when displaying the second representation). By shifting the display content on and off only when certain conditions are met, the user switches between displaying the camera mode and displaying the camera settings on the electronic device. Can be quickly recognized and the user responds to a request to capture the media while the previously displayed portion of the media is not captured or the electronic device displays a particular user interface. , It can be recognized that the newly displayed part of the media is captured. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第3の部分の第3の表現である。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第2のタイプのカメラ(例えば、超広角カメラ(例えば、第1のタイプのカメラと同一カメラタイプのカメラ))を使用してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、1つ以上のカメラの視野の第4の部分の第4の表現を表示する。いくつかの実施形態では、1つ以上のカメラの視野の第4の部分(例えば、図35Aの630に表示される3538)は、1つ以上のカメラの視野の第3の部分内にない1つ以上のカメラの視野の一部分(例えば、図35Bの630に表示される3538)を含む(例えば、1つ以上のカメラの視野の部分の一部は、第2の表現を表示するときに、ディスプレイ上にシフトされる)。所定の条件が満たされているときにのみ、ディスプレイのコンテンツをオン/オフをシフトすることにより、ユーザは、電子デバイスがカメラモードを表示することとカメラ設定を表示することとの間を切り替えたことを迅速に認識することができ、かつユーザは、メディアの以前に表示された部分がキャプチャされず、又は電子デバイスが特定のユーザインタフェースを表示する間に、メディアをキャプチャする要求に応答して、メディアの新たに表示された部分がキャプチャされることを認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the representation of the field of view of one or more cameras is the third representation of the third portion of the field of view of one or more cameras. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a second type of camera (eg, an ultra-wide angle camera (eg, with a first type of camera)). According to the determination that the electronic device is configured to capture media using the same camera type camera)), the electronic device makes a fourth representation of the fourth part of the field of view of one or more cameras. indicate. In some embodiments, the fourth portion of the field of view of one or more cameras (eg, 3538 displayed in 630 of FIG. 35A) is not within the third portion of the field of view of one or more cameras1. A portion of the field of view of one or more cameras (eg, 3538 displayed in 630 of FIG. 35B) is included (eg, a portion of the field of view of one or more cameras when displaying the second representation. Shifted onto the display). By shifting the display content on and off only when certain conditions are met, the user switches between displaying the camera mode and displaying the camera settings on the electronic device. Can be quickly recognized and the user responds to a request to capture the media while the previously displayed portion of the media is not captured or the electronic device displays a particular user interface. , It can be recognized that the newly displayed part of the media is captured. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、1つ以上のカメラの視野の表現は、1つ以上のカメラの視野の第5の部分の第5の表現である。いくつかの実施形態では、第5の表現は、ディスプレイ上の第2の場所に表示される。いくつかの実施形態では、カメラユーザインタフェースに向けられた第2のジェスチャを受信したことに応答して、及び第3のタイプのカメラ(例えば、広角又は望遠写真カメラ(例えば、第3のタイプのカメラは、第1のタイプのカメラ及び第2のタイプのカメラとは異なる)を使用してメディアをキャプチャするように電子デバイスが構成されているという判定に従って、電子デバイスは、ディスプレイ上の第2の場所からディスプレイ上の第3の場所に第5の表現を動かす(例えば、1つ以上のカメラの視野の部分がディスプレイから外れてシフトされているように見えない)。 In some embodiments, the representation of the field of view of one or more cameras is the fifth representation of the fifth portion of the field of view of one or more cameras. In some embodiments, the fifth representation is displayed in a second location on the display. In some embodiments, in response to receiving a second gesture directed at the camera user interface, and a third type of camera (eg, a wide-angle or telephoto camera (eg, a third type). According to the determination that the electronic device is configured to capture media using a camera of the first type and a camera of the second type), the electronic device is a second on the display. Move the fifth representation from one location to a third location on the display (eg, parts of the field of view of one or more cameras do not appear to be shifted off the display).
いくつかの実施形態では、第1のカメラモードは、ポートレートモード(例えば、図35Gの626c)である。いくつかの実施形態では、1つ以上のカメラの視野の表現(例えば、図35Gの630)は、第1のズームレベル(例えば、2622a)(例えば、0.5×、1×、2×)で表示される。いくつかの実施形態では、第1の複数のカメラモードアフォーダンス(例えば、620)(例えば、ポートレートモード)を表示している間に、電子デバイスは、照明効果動作及びズームアフォーダンス(例えば、2622a)を制御するアフォーダンス(例えば、628)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する(例えば、同時に表示された)。ズームアフォーダンス(例えば、フォーカスセレクタがズームアフォーダンスに向けられている間のズームアフォーダンス上でのタップ入力又はマウスクリック又は他のアクティブ化入力)を表示している間に、電子デバイスは、ズームアフォーダンスに向けられた第4のジェスチャ(例えば、3550g)を受信する。いくつかの実施形態では、ズームアフォーダンスに向けられた第4のジェスチャを受信したことに応答して、電子デバイスは、第2のズームレベル(例えば、2622c)(例えば、0.5×、1×、2×)で1つ以上のカメラの視野の表現(例えば、図35Hの630)を表示する。 In some embodiments, the first camera mode is a portrait mode (eg, 626c in FIG. 35G). In some embodiments, the representation of the field of view of one or more cameras (eg, 630 in FIG. 35G) is the first zoom level (eg, 2622a) (eg, 0.5x, 1x, 2x). Is displayed. In some embodiments, while displaying the first plurality of camera mode affordances (eg, 620) (eg, portrait mode), the electronic device has a lighting effect operation and zoom affordance (eg, 2622a). Display affordances (eg, 628) (eg, selectable user interface objects) that control (eg, displayed at the same time). While displaying the zoom affordance (eg, tap input or mouse click or other activation input on the zoom affordance while the focus selector is directed to the zoom affordance), the electronic device is directed to the zoom affordance. Receive the fourth gesture (eg, 3550 g) that has been made. In some embodiments, in response to receiving a fourth gesture directed to zoom affordance, the electronic device has a second zoom level (eg, 2622c) (eg, 0.5x, 1x). , 2x) indicates the representation of the field of view of one or more cameras (eg, 630 in FIG. 35H).
いくつかの実施形態では、第1の複数のカメラモードアフォーダンスは、選択されると、メディアをキャプチャする要求に応答して、電子デバイスに第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンス(例えば、620c)(例えば、選択可能ユーザインタフェースオブジェクト)と、選択されると、メディアをキャプチャする要求に応答して、電子デバイスに第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンス(例えば、620d)(例えば、選択可能ユーザインタフェースオブジェクト)と、を含む。いくつかの実施形態では、第1の複数のカメラモードアフォーダンスが表示されている間に、第1のカメラモードアフォーダンスが選択される(例えば、ディスプレイ上の特定の位置(例えば、中心位置)に、異なるフォント、色、テキストサイズの太字で表示される)。 In some embodiments, the first plurality of camera mode interfaces, when selected, cause the electronic device to capture the media in the first camera mode in response to a request to capture the media. An affordance (eg, 620c) (eg, a selectable user interface object) and, when selected, a second camera mode that causes the electronic device to capture the media in the second camera mode in response to a request to capture the media. Includes affordance (eg, 620d) (eg, selectable user interface objects). In some embodiments, while the first plurality of camera mode affordances are displayed, the first camera mode affordance is selected (eg, at a particular position (eg, center position) on the display). Displayed in bold with different fonts, colors, and text sizes).
いくつかの実施形態では、第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードアフォーダンス(例えば、620c)は、第2のカメラモードアフォーダンス(例えば、620d)に隣接して表示される。いくつかの実施形態では、第1のカメラモードアフォーダンスは、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前、かつ第1の複数のカメラモードアフォーダンスを表示している間に、第1のカメラモードがアクティブ(例えば、図35Aの620c)であるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第1のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色である第1のカメラモードアフォーダンスとともに、第1のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第2のカメラモードアフォーダンスは、カメラユーザインタフェースに向けられた第1のジェスチャを検出する前、かつ第1の複数のカメラモードアフォーダンスを表示している間に、及び/又は電子デバイスが第1のカメラモードで動作するように構成される間に、第2のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第2のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, the first camera mode affordance (eg, 620c) is adjacent to the second camera mode affordance (eg, 620d) while displaying the first plurality of camera mode affordances. Is displayed. In some embodiments, the first camera mode affordance is the first before detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances. Is displayed with an indication that the camera mode is active (eg, 620c in FIG. 35A) (eg, pressed, bold, and / or the first camera mode is inactive (eg, black vs. grayout). Along with the first camera mode affordance, which is a different color than the time, the first camera mode is displayed with the active visual indication). In some embodiments, the second camera mode affordance is before detecting the first gesture directed at the camera user interface, and while displaying the first plurality of camera mode affordances, and /. Or while the electronic device is configured to operate in the first camera mode, the second camera mode is displayed with an indication that it is inactive (eg, not pressed, not bold, and / or a second. A second camera mode is displayed with a visual indication that is inactive, such as a different color than when the camera mode is active (eg, grayout vs. black).
いくつかの実施形態では、第1の場所で第2の1組のカメラ設定アフォーダンス(例えば、図35Eの626)を表示している間に、電子デバイスは、カメラインタフェースに向けられた第5のジェスチャを検出する。いくつかの実施形態では、カメラインタフェースに向けられた第5のジェスチャ(例えば、3550e及び3550d)を検出したことに応答して、電子デバイスは、カメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンス(例えば、図35Fの620)(例えば、選択可能ユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第2のモードアフォーダンス(例えば、図35Fの620d)を含む。いくつかの実施形態では、第2のカメラモードアフォーダンス(例えば、図35Fの太字620d)は、第2のカメラモードがアクティブであるインジケーションとともに表示される(例えば、プレスされた、太字、及び/又は第2のカメラモードが非アクティブ(例えば、黒対グレーアウト)であるときとは異なる色であるなどの、第2のカメラモードがアクティブである視覚インジケーションとともに表示される)。いくつかの実施形態では、第3の複数のカメラモードアフォーダンスは、第1のカメラモードアフォーダンスを含む。いくつかの実施形態では、第1のカメラモードアフォーダンスは、第3のカメラモードアフォーダンスが、第3のカメラモードがアクティブであるインジケーションとともに表示される間に、及び/又は電子デバイスが第2のカメラモードで動作するように構成される間に、第1のカメラモードが非アクティブであるインジケーションとともに表示される(例えば、プレスされない、太字でない、及び/又は第2のカメラモードがアクティブ(例えば、グレーアウト対黒)であるときとは異なる色であるなどの、第1のカメラモードが非アクティブである視覚インジケーションとともに表示される)。 In some embodiments, the electronic device is directed at the camera interface while displaying a second set of camera setting affordances (eg, 626 in FIG. 35E) at the first location. Detect gestures. In some embodiments, in response to detecting a fifth gesture directed at the camera interface (eg, 3550e and 3550d), the electronic device indicates a third plurality of different camera operating modes of the camera. Display camera mode affordances (eg, 620 in FIG. 35F) (eg, selectable user interface objects). In some embodiments, the third plurality of camera mode affordances includes a second mode affordance (eg, 620d in FIG. 35F). In some embodiments, the second camera mode affordance (eg, bold 620d in FIG. 35F) is displayed with the indication that the second camera mode is active (eg, pressed, bold, and /. Alternatively, it is displayed with a visual indication in which the second camera mode is active, such as a different color than when the second camera mode is inactive (eg, black vs. grayout). In some embodiments, the third plurality of camera mode affordances includes a first camera mode affordance. In some embodiments, the first camera mode affordance is while the third camera mode affordance is displayed with the indication that the third camera mode is active, and / or the electronic device is second. While configured to operate in camera mode, the first camera mode is displayed with indications that are inactive (eg, not pressed, not bold, and / or the second camera mode is active (eg,). The first camera mode is displayed with visual indications that are inactive, such as a different color than when grayed out vs. black).
方法3600に関して上述された処理(例えば、図36A〜図36B)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、及び3800は、方法3600を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200は、任意選択的に、方法3600に関連して上述した様々な技術を使用して、メディアをキャプチャするカメラモードについて様々なカメラ設定にアクセスすることを採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for method 3600 (eg, FIGS. 36A-36B) are also applicable to the methods described above in a similar manner. For example,
図37A〜図37AAは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための例示的なユーザインタフェースを示す。それらの図におけるユーザインタフェースは、図38A〜図38Cにおける処理を含む、以下で説明される処理を例示するために使用される。 37A-37AA show an exemplary user interface for automatically adjusting captured media using electronic devices according to some embodiments. The user interfaces in those figures are used to illustrate the processes described below, including the processes in FIGS. 38A-38C.
図37Aは、図37C〜図37AAにおいて以下に説明する実施形態の理解を向上させるための例示的なシーン3780を示す。左から右へ動くシーン3780は、左部分3782及び右部分3784を含む。左部分3782は、矩形プリズム2432上に座っている人を含む。右部分3784は、人3784bの肩に座っている犬3784aを含む。更には、シーン3780は、シーン3780の幅にわたって走る水平線2438を更に含む。
FIG. 37A shows
図37Bは、図37C〜図37AAにおいて以下に説明する実施形態の理解を向上させるための設定ユーザインタフェースを表示する電子デバイス600を示す。設定ユーザインタフェースは、設定アフォーダンス3702含む。具体的には、設定アフォーダンス3702は、追加のコンテンツ設定アフォーダンス3702aを含む。図37Bにおいて、追加のコンテンツ設定アフォーダンス3702aは、選択されていないように(例えば、オフ状態で)表示され、これは、デバイス600が追加のコンテンツをキャプチャするように構成されていないことを示す。
FIG. 37B shows an
図37C〜図37Jは、電子デバイスを使用してキャプチャされたメディアを自動的に調整するための画像をキャプチャするための例示的なユーザインタフェースを示す。図37K〜図37Qは、メディアが表示されると(例えば、図37C及び図37Tに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成される場合、図37C〜図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。図37R〜図37Wは、メディアが表示されると(例えば、図37Oに示すように)、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていない場合、図37C〜図37Jのうちの1つ以上においてキャプチャされた画像を自動的に調整する例示的なユーザインタフェースを示す。更には、図37X〜図37AAは、図37K〜図37Wに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。図37Bでは、デバイス600は、設定ユーザインタフェースの底部部分に対応する場所での右向きスワイプジェスチャ3750bを検出する。
37C-37J show an exemplary user interface for capturing an image for automatically adjusting the captured media using an electronic device. 37K-37Q are shown in FIGS. 37C-37Q when the
図37Cに示すように、右向きスワイプジェスチャ3750bを検出したことに応答して、デバイス600は、設定ユーザインタフェースの表示を、カメラユーザインタフェースに置き換える。図37Cにおいて、デバイス600は、右部分3784の写真を撮る位置にある。図37Cでは、デバイス600は、右部分3784に近接した場所にあり、これにより、犬3784a及び人3784bの肩は、ライブプレビュー630を含むカメラユーザインタフェース上に表示される。ライブプレビュー630は、1つ以上のカメラセンサによって検出された画像に基づく。ライブプレビュー630は、1×ズームレベルで表示され、選択された1×ズームアフォーダンス2622bによって明らかである。ライブプレビュー630が1×ズームレベルで表示され、かつデバイス600が現在デバイス600の裏側のカメラを使用して、メディアをキャプチャするため、デバイス600は、図31Cに関連して上述したように、広い視野を有するカメラ(例えば、超広角カメラ)及び狭い視野を有するカメラ(例えば、広角カメラ)を使用して、犬3784aの画像をキャプチャしている。
As shown in FIG. 37C, in response to detecting the
図37Cに示すように、カメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含み、これらは、インジケータ及びコントロールがライブプレビュー630と同時に表示され得るように、ライブプレビュー630上に重ねられる。インジケータ領域602及びコントロール領域606にライブプレビュー630の部分を表示するために、デバイス600は、広い視野(WFOV)を有するカメラの視野内にある環境の部分(例えば、犬3784aの肉球の上部又は耳及び底部)を使用する。更には、カメラユーザインタフェースは、カメラディスプレイ領域604を含む。デバイス600は、狭い視野(NFOV)を有するカメラの視野内にある環境(例えば、犬3784aの体)の部分を使用することにより、カメラディスプレイ領域604内にライブプレビュー630の部分を表示する。
As shown in FIG. 37C, the camera user interface includes an
図37Cに示すように、インジケータ領域602は、灰色オーバーレイを含み、カメラディスプレイ領域604は、灰色オーバーレイを含まない。インジケータ領域602とカメラディスプレイ領域604との間の色の遷移では、視覚境界部608は、インジケータ領域602とカメラディスプレイ領域604との間に表示される。インジケータ領域602はまた、フラッシュインジケータ602aを含み、フラッシュインジケータ602aは、フラッシュが自動モード、オン、オフ、又は別のモード(例えば、赤目低減モード)であるかどうかを示す。いくつかの実施形態では、他のインジケータ(例えば、インジケータ602b〜602fはまた、インジケータ領域602に含まれる。
As shown in FIG. 37C, the
図37Cに示すように、コントロール領域606はまた、灰色オーバーレイを含み、視覚境界部608は、コントロール領域606とカメラディスプレイ領域604との間にこれらの領域の間の色の遷移時に表示される。いくつかの実施形態では、視覚境界部608は、領域602、604、及び608の間に実線又は点線として表示される。コントロール領域606は、カメラモードアフォーダンス620、メディアコレクションの一部分624、シャッターアフォーダンス610、及びカメラスイッチャアフォーダンス612を含む。カメラモードアフォーダンス620は、どのカメラモードが現在選択されているか(例えば、太字で表示された「写真」モード)を示し、ユーザがカメラモードを変更することを可能にする。
As shown in FIG. 37C, the
図37Cに示すように、デバイス600は、インジケータ領域602とカメラディスプレイ領域604との間に、(図29B〜図29Iで論じられたように)視覚境界部608に沿って視覚的引裂きを含む。ここで、インジケータ領域602内に表示される犬の(例えば、犬3784a)耳の上部部分は、カメラディスプレイ領域604に表示される犬の耳の残部の左にシフトされる。いくつかの実施形態では、インジケータ領域602及びコントロール領域606内に表示されるライブプレビュー630の部分は、デバイス600が、図37Bに関連して上述したように、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)をキャプチャするように構成されるため、ブラックアウトされる。図37Cでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750cを検出する。
As shown in FIG. 37C,
図37Dに示すように、タップジェスチャ3750cを検出したことに応答して、デバイス600は、デバイス600が追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)をキャプチャするように構成されていないため、カメラディスプレイ領域604内に表示されるライブプレビュー630の部分に対応するメディアアイテム(例えば、写真)をキャプチャする。更に、タップジェスチャ3750cを検出したことに応答して、デバイス600は、タップジェスチャ3750cに応答して、キャプチャされたメディアアイテムの表現3724aで、メディアコレクション624を更新する。いくつかの実施形態では、ライブプレビュー630内の視覚的引裂きが閾値レベルを上回る場合、デバイス600が追加のコンテンツをキャプチャするように構成されている場合であっても、デバイス600は、タップジェスチャ3750cを検出したことに応答して、追加のコンテンツ(例えば、領域602及び606内に表示されるライブプレビュー630の部分)を含まないメディアアイテムをキャプチャする。
As shown in FIG. 37D, in response to detecting the
図37Dでは、デバイス600は、右部分3784から更に離れるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Dに示すように、ライブプレビュー630を更新し、ここで、犬の耳は、もはや視覚境界部608を遮らず、人3784bの頭の一部分が新たに表示される。ここで、デバイス600は、視覚的引裂きがライブプレビュー630上に存在しないように、右部分3784から十分離れている。図37Dでは、デバイス600は、コントロール領域606の底部上の場所での右向きスワイプジェスチャ3750dを検出する。
In FIG. 37D, the
図37Eに示すように、右向きスワイプジェスチャ3750dを検出したことに応答して、デバイス600は、カメラ設定ユーザインタフェースの代わりに設定ユーザインタフェースを再表示する。図37Eでは、デバイス600は、追加のコンテンツ設定アフォーダンス3702aに対応する場所でのタップジェスチャ3750eを検出する。
As shown in FIG. 37E, in response to detecting the
図37Fに示すように、タップジェスチャ3750eを検出したことに応答して、デバイス600は、選択されているものとして(例えば、オン状態で)追加のコンテンツ設定アフォーダンス3702aを表示し、これは、デバイス600が追加のコンテンツをキャプチャするように構成されることを示す。タップジェスチャ3750eを検出したことに応答して、デバイス600はまた、選択されているものとして自動メディア補正設定アフォーダンス3702a1を表示し、これは、いくつかの状況では、以下で論じるようにメディアが表示されるときに、デバイス600がキャプチャされたメディアを自動的に調整するように構成されることを示す。自動メディア補正設定アフォーダンス3702a1を表示することとともに、タップジェスチャ3750eを検出したことに応答して、デバイス600は、選択されているものとして、メディアをキャプチャする要求(例えば、タップジェスチャ3750c)を検出したことに応答して、デバイス600が画像メディアの追加のコンテンツをキャプチャするように構成されることを示す、追加の画像コンテンツキャプチャ設定アフォーダンス3702a2と、メディアをキャプチャする要求を検出したことに応答して、デバイス600がビデオメディアの追加のコンテンツをキャプチャするように構成されることを示す、追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3と、を表示する。いくつかの実施形態では、自動メディア補正設定アフォーダンス3702a1(又はアフォーダンス3702a2〜3702a3)は、タップジェスチャ3750eを検出したことに応答して、選択されたものとして表示されず、かつデバイス600が自動メディア補正設定アフォーダンス3702a1に対応する場所で追加のタップジェスチャを検出するとき、デバイス600は、選択されるように、自動メディア補正設定アフォーダンス3702a1を更新する。いくつかの実施形態では、デバイス600が選択されていないように追加の画像コンテンツキャプチャ設定アフォーダンス3702a2を表示する場合、デバイス600は、メディアをキャプチャする要求に応答して、画像メディアの追加のコンテンツをキャプチャするように構成されていない。いくつかの実施形態では、デバイス600が選択されていないように追加のビデオコンテンツキャプチャ設定アフォーダンス3702a3を表示する場合、デバイス600は、メディアをキャプチャする要求に応答して、ビデオメディアの追加のコンテンツをキャプチャするように構成されていない。図37Fでは、デバイス600は、設定ユーザインタフェースの底部に対応する場所での右向きスワイプジェスチャ3750fを検出する。
As shown in FIG. 37F, in response to detecting the
図37Gに示すように、右向きスワイプジェスチャ3750fを検出したことに応答して、デバイス600は、図37Dに表示されたように、設定ユーザインタフェースの表示を、カメラユーザインタフェースの表示に置き換える。図37Gでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750gを検出する。
In response to detecting the
図37Hに示すように、タップジェスチャ3750gを検出したことに応答して、デバイス600は、図37Gのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、視覚的引裂きを伴わずに人3784bの肩の一部分上に座っている犬3784aの画像)をキャプチャする。更に、タブジェスチャ3750gを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724bで更新する。
As shown in FIG. 37H, in response to detecting
図37Hでは、デバイス600は、右にシフトしている。右にシフトした後、デバイス600は、デバイス600の1つ以上のカメラのうちの1つの更新された視野に基づいて、犬3784aの頭の半分がライブプレビュー630からカットオフされるように、ライブプレビュー630を更新する。図37Hでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750hを検出する。
In FIG. 37H, the
図37Iに示すように、タップジェスチャ3750hを検出したことに応答して、デバイス600は、図37Hのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、犬3784aの頭の半分を有する画像)をキャプチャする。更に、タップジェスチャ3750hを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724cで更新する。
In response to detecting
図37Iでは、デバイス600は、デバイス600の1つ以上のカメラが、矩形プリズム2432上に座っている人を有する左部分3782に向けられるように、位置を変更した。移動の変化を検出した後に、デバイス600は、図37Iに示すように、ライブプレビュー630を更新する。例えば、ライブプレビュー630を表示している間に、デバイス600は、カメラディスプレイ領域604内の矩形プリズム2432上に座っている人及びインジケータ領域602内のデバイス600の後カメラの視野内に入ってきた鳥2440を表示する。デバイス600がわずかに傾斜している(例えば、シーンの平面に対してx軸、y軸、及び/又はz軸のうちの1つ以上に沿って回転される)ため、左部分3782の様々な部分は、上記の図24Aの左部分3782と比較して、図37Iのライブプレビュー630内に表示されるように歪む。図37Iにおいて、ライブプレビュー630は、補正されていない垂直遠近歪(例えば、垂直線2434a〜2434cは、ライブプレビュー630の底部に向かって、それぞれの点で視覚的に収束するように見える)、水平遠近歪(例えば、水平線2436a〜2436bは、ライブプレビュー630において右から左へ動いて収束するように見える)、及び水平線歪(例えば、水平線は、左部分3782で一直線であるとき、ライブプレビュー630内で対角線である)を含む。図37Iでは、デバイス600は、シャッターアフォーダンス610に対応する場所でのタップジェスチャ3750iを検出する。
In FIG. 37I,
図37Jに示すように、タップジェスチャ3750iを検出したことに応答して、デバイス600は、図37Iのライブプレビュー630に対応する新しいメディアアイテム(例えば、写真)(例えば、歪みを有する矩形プリズム2432上に座っている人)をキャプチャする。更に、タップジェスチャ3750iを検出したことに応答して、デバイス600は、メディアコレクション624を、新たにキャプチャされたメディアアイテムの表現3724dで更新する。図37Jでは、デバイス600は、メディアコレクション624に対応する場所でのタップジェスチャ3750jを検出し、ここで、タップジェスチャ3750iを検出したことに応答して、キャプチャされたメディアアイテムは、キャプチャされた最後のメディアであり、表現3724dは、メディアコレクション624の上に表示される。
As shown in FIG. 37J, in response to detecting the
図37Kに示すように、タップジェスチャ3750jを検出したことに応答して、デバイス600は、カメラユーザインタフェースの表示を停止し、代わりに、写真ビューワユーザインタフェースを表示する。写真ビューワユーザインタフェースは、写真ビューワユーザインタフェースの底部で表示されるメディアコレクション624を含む。メディアコレクション624は、上述の図37C〜図37Jでキャプチャされたメディアアイテムの表現3724aをそれぞれ含む。表現3724a〜dを表示することとともに、写真ビューワユーザインタフェースは、メディアを編集するための編集アフォーダンス644aと、キャプチャされたメディアを伝送するための送信アフォーダンス644bと、キャプチャされたメディアをお気に入りのメディアとしてマーキングするためのお気に入りアフォーダンス644cと、キャプチャされたメディアを削除するためのごみ箱アフォーダンス644dと、ライブプレビュー630の表示に戻るための戻るアフォーダンス644eと、を含む。
As shown in FIG. 37K, in response to detecting the
図37Kでは、タップジェスチャ3750jを検出したことに応答して、デバイス600は、コンテンツ(例えば、データ)が図37Iのインジケータ領域602及びコントロール領域606(及びカメラディスプレイ領域604)の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724dによって表されたメディアアイテムは、完全に処理されていない。換言すれば、デバイス600は、表現3724dによって表されたメディアアイテムをキャプチャしたとき、デバイス600が追加のコンテンツをキャプチャし、メディアアイテムに対応するコンテンツが完全に処理されるのに閾値時間量より少ない時間量が経過したため、コンテンツ処理インジケータ3732を表示する。ここで、表現3724dによって表されたメディアアイテムは、図37Iのライブプレビュー630内に表示されるように、WFOVからのインジケータ領域602及びコントロール領域606の部分及びNFOVからのカメラディスプレイ領域604の部分からキャプチャされたコンテンツを含む。しかしながら、表現3724dは、NFOVからのカメラディスプレイ領域604の部分からキャプチャされるコンテンツ飲みを含む。本明細書では、メディアアイテムの表現(例えば、メモリに保存されるデータ構造)は、メディアアイテムのコンテンツ(例えば、データ)の一部分のみを使用して形成され得る。いくつかの実施形態では、コンテンツ処理インジケータ3732は、スピンするアニメーション化されたインジケータである。いくつかの実施形態では、コンテンツ処理インジケータ3732は、処理された要求されたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)に対応する、キャプチャされたコンテンツのパーセンテージを示すように、埋まるアニメーション化されたプログレスバーである。
In FIG. 37K, in response to detecting
図37Kでは、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツが完全に処理されていないため、デバイス600は、拡大された調整されていない表現3730d1を表示し、これは、調整されていないメディアアイテムの表現である。ここで、調整されていない表現3730d1は、図37Iのライブプレビュー630内に表示される歪みに類似した、垂直遠近歪、水平遠近歪、及び水平線歪みを含む。調整されていない表現3730d1は、図37Iの領域602及び606内に表示されるコンテンツからキャプチャされたことを使用して、調整がメディアアイテム(表現3724dによって表された)を適用されなかったため、図37I内に表示されるように、カメラディスプレイ領域604内に表示されるコンテンツからキャプチャされたコンテンツのみを含む。例えば、調整されていない表現3730d1は、図37Iのインジケータ領域602内に表示される追加のコンテンツ(例えば、鳥2440)を含まない。調整されていない表現3724d1を表示することとともに、デバイス600はまた、調整されていない表現3730d1と一致する表現3724dを表示する。
In FIG. 37K, the
図37Lに示すように、表現3724dによって表されたメディアアイテムの追加のコンテンツを処理した後、デバイス600は、コンテンツ処理インジケータ3732が時計方向に回転するコンテンツ処理インジケータ3732の表示をアニメーション又は更新し続ける。図37Lでは、デバイス600は、表現3724d(例えば、調整されていない表現3730d1)によって表されたメディアアイテムの水平線2438、垂直線2434a〜2434c、及び水平線2436a〜2436bが補正される必要があるため、コンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテム(例えば、表現3724dによって表されたメディアアイテム)が、領域602及び606(例えば、図37I)内に表示される表現の部分からキャプチャされたコンテンツを使用して補正され得る、1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、垂直補正、水平補正、及びリフレーミング)を含むという判定を行う。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが補正される必要がある1つ以上の視覚アスペクトを含むという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、以前にキャプチャされたメディアアイテムが補正される必要があるという判定を行う。
As shown in FIG. 37L, after processing the additional content of the media item represented by
デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため(図37Fにおいて上述のように、自動メディア補正設定アフォーダンス3702a1によってアクティブ状態に設定されている)、及びコンテンツ(例えば、図37Iの領域602及び606内に表示される表現の部分からキャプチャされたコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要があるという判定のため、デバイス600は、(追加のユーザ入力なしで)アニメーションを自動的に表示する。アニメーションを表示するときに、デバイス600は、図37Lの部分的に調整された表現3730d2などの更新された表現を表示するように、調整されていない表現3730d1を調整する。すなわち、いくつかの実施形態では、デバイス600は、デバイス600が追加のコンテンツのうちのより多くを処理する間に、調整されていない表現を更新するアニメーションを表示する。図37Lでは、デバイス600は、水平線2438の水平線歪みを補正するように、表現を回転させた。特に、デバイス600が表現を回転させたため、デバイス600は、インジケータ領域602内に表示されるライブプレビュー630の部分のうちのいくつか(例えば、図37Iの鳥2440)を、部分的に調整された表現3730d2内に(例えば、表現3724dによって表されたメディアアイテムの追加のコンテンツのうちのいくつかを使用して)表示する。更には、回転により、調整されていない表現3730d1内での対角線から(例えば、水平線2438のいくつかの点が異なるy値を有する)水平線(例えば、水平線の各点が同じy値を有するへ、水平線2438を変更し、かつ水平線2438は、図24Eに関連して論じられた技術を使用して、部分的に調整された表現3730d2内の表現のx軸に沿ってのみ進む。部分的に調整された表現3730d2を表示することとともに、デバイス600はまた、部分的に調整された表現3730d2と一致するように、メディアコレクション624内の表現3724dを更新する。いくつかの実施形態では、デバイス600は、表現3724dを更新したときに、デバイス600が部分的に調整された表現3730d2などの更新された表現を表示するために、調整されていない表現3730d1を調整したときに表示するものと類似のアニメーションを表示する。
Because the
図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため(デバイス600がキャプチャされたメディアを自動的に調整するように構成されるため、及びコンテンツが表現3724dによって表されたメディアアイテムを補正するために使用される必要があるとの判定のため、デバイス600は、アニメーションを表示する)、デバイス600は、自動的に(追加のユーザ入力なしで)、部分的に調整された表現3730d2を、調整された表現3730d3に置き換える。デバイス600は、表現3724dによって表されたメディアアイテムの垂直及び水平視点を更新することによって、調整された表現3730d3を表示する。図37Mにおいて、図37Iでキャプチャされたライブプレビュー630と比較して、調整された表現3730d3は、垂直遠近歪(例えば、垂直線2434a〜2434cは、表現3730d1においてより平行に見える)、水平遠近歪(例えば、水平線2436a〜2436bは、ライブプレビュー630において右から左へ動いて収束しないように見える)、及び水平線歪(例えば、水平線は、より水平である)がより少ない。ここで、調整された表現3730d3は、図37Iのカメラディスプレイ領域604内に表示されるライブプレビュー630の部分のうちのいくつか(矩形プリズム2432上に座っている人)、及び図37Iのインジケータ領域602内に表示されるライブプレビュー630の部分のうちのいくつか(例えば、鳥2440)を含む。上述のように、表現(represented)3724dによって表されたメディアアイテムを使用して、表現を調整するとき、デバイス600は、メディアアイテムの様々な構成要素を補正するために、追加の視覚コンテンツ(例えば、鳥2440)を利用する(例えば、持ち込む)(例えば、図24Dに関連して上述したように)。それにより、デバイス600は、調整された表現3730d3を追加の視覚コンテンツとともに表示する。調整された表現3730d3を表示することとともに、デバイス600はまた、調整された表現3730d3と一致するように、メディアコレクション624内の表現3724dを更新する。
As shown in FIG. 37M, in addition to the reason for displaying the animation described above in FIG. 37L, because the
図37Mに示すように、図37Lで上述したアニメーションを表示する理由に加えて、デバイス600が表現3724dによって表されたメディアアイテムのコンテンツを完全に処理しているため、デバイス600は、デバイス600がメディアアイテムのコンテンツを完全に処理しているため、コンテンツ処理インジケータ3732を、自動調整アフォーダンス1036bに置き換える。自動調整アフォーダンス1036bは、選択されているものとして(例えば、太字、プレスされて)表示され、これは、デバイス600がメディアアイテムの表現(例えば、調整された表現3730d3)を表示していることを示し、ここで、メディアアイテムが1つ以上の調整アルゴリズムに基づいて調整されている。図37Mでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのタップジェスチャ3750mを検出する。
As shown in FIG. 37M, in addition to the reason for displaying the animation described above in FIG. 37L, the
図37Nに示すように、タップジェスチャ3750mを検出したことに応答して、デバイス600は、図37Kに関連して上述したように、調整されていない表現3724dによって表されたメディアアイテムである、拡大された調整されていない表現3730d1を表示する。換言すれば、デバイス600は、タップジェスチャ3750mを検出したことに応答して、図37K〜図37Lにおいて行われた調整を復元する。更には、タップジェスチャ37350mを検出したことに応答して、デバイス600は、自動調整アフォーダンスが未選択(例えば、太字でなく、プレスされていない)であるものとして表示されるように、自動調整アフォーダンス1036bの表示を更新し、かつ調整されていない表現3730d1と一致するように、メディアコレクション624内の3724bの表現を更新する。図37Nでは、デバイス600は、メディアコレクション624における表現3724bに対応する場所でのタップジェスチャ3750nを検出する。
As shown in FIG. 37N, in response to the detection of the
図37Oに示すように、タップジェスチャ3750nを検出したことに応答して、デバイス600は、拡大された調整されていない表現3730d1を、調整されていない表現3730b1に置き換え、これは、メディアコレクション624内に表現3724bによって表されたメディアアイテムに対応する。更に、タップジェスチャ3750nを検出したことに応答して、デバイス600は、自動調整アフォーダンス1036bの表示を、コンテンツ処理インジケータ3732に置き換える。デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732を表示する。例えば、デバイス600は、コンテンツが図37Dのインジケータ領域602及びコントロール領域606の部分からキャプチャされたため(例えば、デバイス600が、図37Fに関連して上述したように、追加のコンテンツをキャプチャするように構成されるため)、コンテンツ処理インジケータ3732を表示し、表現3724bによって表されたメディアアイテムのコンテンツは、完全に処理されていない。
As shown in FIG. 37O, in response to detecting the
図37Pに示すように、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行う。図37Bでは、デバイス600は、表現3724bによって表されたメディアアイテムのコンテンツを完全に処理し、かつキャプチャされたコンテンツ(例えば、追加のコンテンツ)が表現3724dによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行い、デバイス600は、表現3724bによって表されたメディアアイテムの調整された表現を表示するのをやめ、かつ調整されていない表現3730b1の表示を維持する。更には、キャプチャされたコンテンツが表現3724bによって表されたメディアアイテムを補正するために使用される必要がないとの判定を行うため、デバイス600は、デバイス600が表現3724bによって表されたメディアアイテムのコンテンツを完全に処理したときに、非選択可能自動調整インジケータ3734を表示する。非選択可能自動調整インジケータ3734は、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がキャプチャされたことを示す。しかしながら、非選択可能自動調整インジケータ3734は、自動調整アフォーダンス1036bのように機能しない(タップジェスチャ3750mに関連して上述したように)。すなわち、自動調整アフォーダンス1036bは、非選択可能自動調整インジケータ3734に対応する場所でのジェスチャに応答して、表示表現を調整しない。いくつかの実施形態では、デバイス600が、追加のコンテンツが表現3724bによって表されたメディアアイテムの自動調整に使用される必要があると判定したが、追加のコンテンツは、表現3724bによって表されたメディアアイテムに関連する1つ以上の動作(例えば、手動での編集)で使用するのに利用可能なままである。図37Pでは、デバイス600は、非選択可能自動調整インジケータ3734に対応する場所でのタップジェスチャ3750pを検出する。
As shown in FIG. 37P, the
図37Qに示すように、タップジェスチャ3750pに応答して、デバイス600は、表現3724bによって表されたメディアアイテムの新しい表現を表示する及び非選択可能自動調整インジケータ3734を更新するのをやめる。換言すれば、タップジェスチャ3750pに応答して、デバイス600は、図37Pに表示されたのと同じ方法で、調整されていない表現3730b1及び非選択可能自動調整インジケータ3734を表示し続ける。
As shown in FIG. 37Q, in response to the
図37K〜図37Qに戻ると、追加のコンテンツ(例えば、領域602及び606からキャプチャされたコンテンツ)がメディアを補正するために使用される必要があるとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた(図37K〜図37Nに関連して上述したように)後に、選択可能自動調整アフォーダンスを表示し、かつメディアの表現を自動的に調整する。しかしながら、いくつかの実施形態では、追加のコンテンツがメディアを補正するために使用される必要がないとの判定を行うときに、デバイス600は、デバイス600がメディアのコンテンツを完全に処理し、かつ追加のコンテンツがキャプチャされた後に、非選択可能自動調整インジケータ3734を表示し、かつメディアの表現を調整しない(図37O〜図37Qに関連して上述したように)。図37Qでは、デバイス600は、写真ビューワユーザインタフェースの底部に対応する場所での右向きスワイプジェスチャ3750qを検出する。
Returning to FIGS. 37K-37Q, the
図37Rに示すように、右向きスワイプジェスチャ3750qを検出したことに応答して、デバイス600は、写真ビューワユーザインタフェースの表示を、設定ユーザインタフェースの表示に置き換え、ここで、自動メディア補正設定アフォーダンス3702a1は、選択されているものとして表示される(図Fに関連して論じられるように)。図37Rでは、デバイス600は、自動メディア補正設定アフォーダンス3702a1に対応する場所でのタップジェスチャ3750rをする。
As shown in FIG. 37R, in response to detecting the
図37Sに示すように、タップジェスチャ3750rを検出したことに応答して、デバイス600は、自動メディア補正設定アフォーダンス3702a1が選択されるように、自動メディア補正設定アフォーダンス3702a1の表示を更新する。未選択の(非アクティブ状態に設定された)自動メディア補正設定アフォーダンス3702a1は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないことを示す。図37Sでは、デバイス600は、設定ユーザインタフェースの底部に対応する場所での左向きスワイプジェスチャ3750sを検出する。
As shown in FIG. 37S, in response to detecting the
図37Tに示すように、スワイプジェスチャ3750sを検出したことに応答して、デバイス600は、調整されていない表現3730c1を表示する(タップジェスチャ3750nに関連して上述したものと同様の技術を使用して、メディアコレクション624内の表現3724cの場所に対応する、タップジェスチャによって以前にナビゲーションされたように)。調整されていない表現3730c1は、メディアコレクション624内の表現3724cに対応する。更に、タップジェスチャ3750sを検出したことに応答して、デバイス600は、図37Kの表現3724dによって表されたメディアアイテムの処理に関連して論じられたものと同様の理由で、コンテンツ処理インジケータ3732とともに、自動調整アフォーダンス1036bを表示する。
As shown in FIG. 37T, in response to detecting the
図37Uに示すように、デバイス600が表現3724cによって表されたメディアアイテム(例えば、犬3784aの頭の一部分がなくなっている画像)のコンテンツを完全に処理したため、及びデバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sで論じられたように)、デバイス600は、アニメーション又は調整された表現を表示するのをやめる。換言すれば、デバイス600がキャプチャされたメディアを自動的に調整するように構成されているときに図37M〜図37Nに論じられるように自動的に調整された表現を表示することとは対照的に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、調整されていない表現3730c1の表示を維持する。更に、デバイス600は、未選択であるものとして自動調整アフォーダンス1036bを表示する。ここで、デバイス600は、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため(図37Sに論じられるように)、選択される代わりに(例えば、図37M)、未選択であるものとして自動調整アフォーダンス1036bを表示する。加えて、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行ったため、非選択可能自動調整インジケータ3734の代わりに、自動調整アフォーダンス1036bを表示する。特に、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、コンテンツが表現3724cによって表されたメディアアイテムを補正するために使用される必要があるとの判定を行いつつも、表現3724cによって表されたメディアアイテムの調整された表現を表示するのをやめる。図37Uでは、デバイス600は、自動調整アフォーダンス1036bに対応する場所でのジェスチャ3750uを検出する。
As shown in FIG. 37U, because the
図37Vに示すように、ジェスチャ3750uを検出したことに応答して、デバイス600は、調整されていない表現3730c1を、調整された表現3730c2に置き換える。調整された表現3730c2は、調整されていない表現3730c1内に以前に表示されなかった犬3784a(例えば、識別されたオブジェクト)の頭の一部分を含む。ここで、デバイス600は、犬3784aの頭のより多くを表示するために追加のコンテンツ内(例えば、領域602、606内、及び/又は図37Hのライブプレビュー630の一部として表示されなかったカメラディスプレイ領域604の面上の部分)に導入することによって、犬3784aの頭にリフレームする。いくつかの実施形態では、デバイス600は、ジェスチャ3750uを検出したことに応答して、各部分的に調整された表現が以前のものよりも調整された表現3730c1に近い、いくつかの部分的に調整された表現を表示することによって、調整されていない表現3730c1をリフレーミングするアニメーションを表示する。調整された表現3730c2を表示することとともに、デバイス600はまた、調整された表現3730c2と一致するように、メディアコレクション624内の表現3724cを更新する。更に、ジェスチャ3750uを検出したことに応答して、デバイス600は、自動調整アフォーダンス1036bが選択されているものとして表示されるように、自動調整アフォーダンス1036bを更新する。図37Vでは、デバイス600は、メディアコレクション624における表現3724aに対応する場所でのジェスチャ3750vを検出する。
As shown in FIG. 37V, in response to detecting the
図37Wに示すように、ジェスチャ3750vを検出したことに応答して、デバイス600は、表現3730aを表示し、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bの表示するのをやめる。図37Wにおいて、デバイス600は、(調整できない)表現3730aを表示し、表現3734aによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示するのをやめる。37B〜37Dに戻ると、デバイス600が図37C〜図37Dにおいて表現3724aによって表されたメディアアイテムをキャプチャしたとき、デバイス600は、追加のコンテンツをキャプチャするように構成されなかった(追加のコンテンツアフォーダンス3702aが図37Bにおいてオフに設定されたため)。この例では、表現3724aによって表されたメディアアイテムをキャプチャしたとき、カメラの視野の外側にある追加のコンテンツは、キャプチャされない。図37Wに戻ると、いくつかの実施形態では、デバイス600は、表現3730aを表示し、追加のコンテンツがキャプチャされる場合であっても、コンテンツ処理インジケータ3732、非選択可能自動調整インジケータ3734、及び自動調整アフォーダンス1036bを表示するのをやめる。いくつかの実施形態では、デバイス600は、追加のコンテンツが保存されないように、キャプチャされた追加のコンテンツが使用不可であることを判定する(例えば、画像内の視覚的引裂きは、視覚的引裂きの特定の閾値レベルを上回るとき)。
As shown in FIG. 37W, in response to detecting the
図37X〜図37AAは、図37K〜図37Vに関連して記載されたものと同様の技術を使用して、他のメディア(例えば、ビデオメディア)を調整する例示的なユーザインタフェースを示す。具体的には、図37Xは、表現3724zによって表されたメディアアイテムの調整された表現である、調整された表現3730z1を表示するデバイス600を示す。更に、図37Xは、(タップジェスチャ3750mに関連して上述したようなものと同様の技術を使用して)選択されると、デバイス600に、表現3724zによって表されたメディアアイテムの調整されていない表現を表示させる、自動調整アフォーダンス1036bを表示するデバイス600を示す。図37Xでは、デバイス600は、メディアアイテムを閲覧する要求(例えば、メディアコレクション624における表現3724zに対応する場所でのタップジェスチャ)が行われた前に、デバイス600が表示3724zで表されるメディアアイテムのコンテンツを完全に処理したため、コンテンツ処理インジケータ3732を表示することなく、調整された表現3724z1及び自動調整アフォーダンス1036bを表示する。更には、デバイス600は、追加のコンテンツがビデオメディアを安定化するために使用される必要があるとデバイス600が判定したため、調整された表現3730z1及び自動調整アフォーダンス1036bを表示する。ここで、調整された表現3730z1は、追加のコンテンツを使用して修正された表現3724z(例えば、より不安定であるビデオ)によって表されたメディアアイテムの1つ以上の修正されたフレームを含む。ここで、デバイス600は、表現3724zによって表されたメディアアイテムがキャプチャされ、各ビデオフレームについて、追加のコンテンツを使用して(例えば、表現3724zによって表されたメディアアイテムがキャプチャされたときの領域602及び606内)、表現3724zによって表されたメディアアイテムがキャプチャされたときに、カメラディスプレイ領域604内に表示されるコンテンツのシフトから得られた1つ以上のギャップを埋めるときに、カメラディスプレイ領域604内に表示されるシフトされたコンテンツを有する。図37Xでは、デバイス600は、メディアコレクション624における表現3724yに対応する場所でのタップジェスチャ3750xを検出する。
37X-37AA show an exemplary user interface for adjusting other media (eg, video media) using techniques similar to those described in relation to FIGS. 37K-37V. Specifically, FIG. 37X shows the
図37Yに示すように、タップジェスチャ3750xを検出したことに応答して、デバイス600は、調整された表現3730z1の表示を、調整されていない表現3730y1の表示に置き換え、これは、表現3724yによって表されたメディアアイテムの調整された表現である。図37X〜図37Yでは、デバイス600は、キャプチャされたメディアを自動的に調整しないように構成された(例えば、非アクティブ状態に設定された自動メディア補正設定アフォーダンス3702a1)。図37Yでは、デバイス600が、追加のコンテンツがメディアを補正する(例えば、ビデオメディアを安定化する)のに使用される必要があるという判定を判定したが、デバイス600がキャプチャされたメディアを自動的に調整するように構成されていないため、デバイス600は、表現3724zによって表されたメディアアイテムの調整されていない表現を表示する。更に、デバイス600は、類似の理由で未選択であるものとして1036bを表示する。図37Yでは、デバイス600は、表現3724xに対応する場所でのタップジェスチャ3750yを検出する。
As shown in FIG. 37Y, in response to detecting the
図37Zに示すように、タップジェスチャ3750yを検出したことに応答して、デバイス600は、追加のコンテンツがキャプチャされ、かつ追加のコンテンツが表現3724xによって表されたメディアアイテム(例えば、ビデオメディア安定化させる)を補正するために使用される必要がないとの判定を行うため、調整されていない表現3730x1(表現3724xによって表されたメディアアイテムに対応する)及び非選択可能自動調整インジケータ3734を表示する。図37Zでは、デバイス600は、表現3724wに対応する場所でのタップジェスチャ3750zを検出する。
As shown in FIG. 37Z, in response to detecting the
図37AAに示すように、タップジェスチャ3750zを検出したことに応答して、デバイス600は、表現3730wを表示し、これは、表現3724wによって表されたメディアアイテムに対応する。デバイス600は、表現3730wを表示し、表現3724wによって表されたメディアアイテムをキャプチャするときに、デバイス600が追加のコンテンツをキャプチャしなかったため、インジケータ3732及び3734並びにアフォーダンス1036bを表示するのをやめる。
As shown in FIG. 37AA, in response to detecting
メディアアイテムの自動調整は、上記の図37A〜図37AAの説明に使用される画像及びビデオメディアに限定されるものではない。例えば、いくつかの実施形態では、デバイス600は、オーディオを含むメディア(例えば、ビデオ、オーディオ記録)をキャプチャする。いくつかの実施形態では、デバイス600は、ビームフォーミングを使用することによって、当初キャプチャされたオーディオを調整する。いくつかの実施形態では、デバイス600は、デバイス600の1つ以上のマイクロフォンを使用して、メディア内のオブジェクト又は対象にズームするときに判定される方向入力に基づいて、単一の出力を生成する。
The automatic adjustment of media items is not limited to the image and video media used in the above description of FIGS. 37A-37AA. For example, in some embodiments, the
図38A〜図38Cは、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを編集するための方法を示すフロー図である。方法3800は、表示デバイス(例えば、タッチ感知ディスプレイ)を備えたデバイス(例えば、100、300、500、600)にて行われる。方法3800のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
38A-38C are flow diagrams illustrating a method for editing media captured using an electronic device according to some embodiments.
後述するように、方法3800は、いくつかの実施形態による電子デバイスを使用してキャプチャされたメディアを自動的に調整するための直感的方法を提供する。この方法は、キャプチャされたメディアを調整する際のユーザの認識的負担を軽減し、それにより、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、ユーザがより高速かつ効率的に調整されたメディアにアクセスすることを有効化することで、電力を節約し、バッテリ充電間の時間を延ばす。
As described below,
電子デバイス(例えば、600)は、表示デバイスを含む。電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、領域604に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第1のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))及び1つ以上のカメラの視野の第2の部分(例えば、領域602及び606に表示されたライブプレビュー630に対応するコンテンツ)(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第2のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含む、以前にキャプチャされたメディアアイテム(例えば、静止画像、ビデオ)の表現を表示する要求(例えば、3750j、3750n、3750v、3750w、3750x、3750y、3750z)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する(3802)。
Electronic devices (eg, 600) include display devices. The electronic device is a first portion of the field of view of one or more cameras (eg, content corresponding to a
以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及び自動メディア補正基準が満たされているという判定に従って(3806)、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示する(3810)。いくつかの実施形態では、自動メディア補正基準は、メディアが特定の時間フレーム中にキャプチャされたと満たされる1つ以上の基準を含み、メディアは、閲覧されず、メディアは、第2の表現を含み、メディアは、第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)を含む。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、メディアの表現の補正されたバージョン(例えば、安定化、水平補正、垂直視点補正、水平視点補正)である。いくつかの実施形態では、第1及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第1のコンテンツの少なくともいくつかの表現及びコンテンツの少なくともいくつかの表現を表示することを含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツ(又は第1のコンテンツ)の少なくともいくつかの表現を表示することを含まず、代わりに、第1のコンテンツ及びコンテンツの組み合わせを含むメディアアイテムの表現は、第2のコンテンツの少なくともいくつかを表示せずに、第2のコンテンツ少なくともいくつかを使用して生成され得る。所定の条件が満たされているときに、調整されたキャプチャされたメディアの表現(例えば、第1及び第2のコンテンツを含む表現)を表示することにより、ユーザは、手動で調整されるべき画像の部分を調整する必要なく、調整されたメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the automatic media correction criteria are met (3806), the electronic device is via the display device. The previously captured representation of the previously captured media item (eg, 3730d3), including the first content and the combination of the second content, is displayed (3810). In some embodiments, the automatic media correction criteria include one or more criteria that satisfy that the media was captured during a particular time frame, the media is not viewed, and the media contains a second representation. The media includes one or more visual aspects that can be corrected using the second content (eg, video stabilization, horizon correction, skew / distortion (eg, horizontal, vertical) correction). In some embodiments, the representation of a media item, including a combination of first and second content, is in a corrected version of the representation of the media (eg, stabilization, horizontal correction, vertical viewpoint correction, horizontal viewpoint correction). be. In some embodiments, the representation of a media item that includes a combination of first and second content comprises displaying at least some representation of the first content and at least some representation of the content. In some embodiments, the representation of the media item, including the first content and the combination of the second content, does not include displaying at least some representation of the second content (or the first content). , Alternatively, the representation of the media item, including the first content and the combination of contents, may be generated using at least some of the second content without displaying at least some of the second content. By displaying an adjusted representation of the captured media (eg, a representation that includes first and second content) when certain conditions are met, the user can manually adjust the image. You can quickly browse the adjusted media representation without having to adjust the part of. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及び自動メディア補正基準が満たされていないという判定に従って(3810)、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730b1、3730c1)を表示する(3816)。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現は、補正されていない(例えば、水平線を安定化させ、補正し、メディアの垂直又は水平視点を補正するために、第2のコンテンツを使用して補正された)表現である。所定の条件が満たされているときに、調整されなかったキャプチャされたメディアの表現(例えば、第1のコンテンツを含むが、第2のコンテンツを含まない表現)を表示することにより、ユーザは、メディアが自動的に調整された場合に行われる必要がある調整を手動で反転する必要なく、調整されなかったメディアの表現を迅速に閲覧することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the automatic media correction criteria are not met (3810), the electronic device is via the display device. It displays representations of previously captured media items (eg, 3730b1, 3730c1) that include the first content and do not include the second content (3816). In some embodiments, the representation of a previously captured media item that contains the first content and does not contain the second content is uncorrected (eg, stabilizing and correcting the horizon, media). Is a representation (corrected using a second content) to correct the vertical or horizontal viewpoint of. By displaying an untuned representation of the captured media (eg, a representation that includes the first content but not the second content) when certain conditions are met, the user can: You can quickly browse the unadjusted media representation without having to manually flip the adjustments that would have to be made if the media were automatically adjusted. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、メディアアイテムの表現を表示する要求を受信する前に、表示デバイスを介して、第1の領域(例えば、604)(例えば、カメラディスプレイ領域)を含むカメラユーザインタフェースを表示する。いくつかの実施形態では、第1の領域は、1つ以上のカメラの視野の第1の部分の表現を含む。いくつかの実施形態では、カメラユーザインタフェースは、第2の領域(例えば、602、606)(例えば、カメラコントロール領域)を含む。いくつかの実施形態では、第2の領域は、1つ以上のカメラの視野の第2の部分の表現を含む。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、第1の部分の表現から視覚的に区別される(例えば、暗色外観を有する)(例えば、1つ以上のカメラの視野の第2の部分上に半透明のオーバーレイを有する)。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、1つ以上のカメラの視野の第1の部分の表現と比較して、暗色外観を有する。いくつかの実施形態では、1つ以上のカメラの視野の第2の部分の表現は、カメラユーザインタフェース内のカメラディスプレイ領域の上方及び/又は下方に位置する。第1の領域とは視覚的に異なる第2の領域を表示することにより、メディアを表示するためにキャプチャ及び使用されるメインコンテンツ及びメディアを表示するためにキャプチャされ得る追加のコンテンツであるコンテンツについてのフィードをユーザに提供し、ユーザが、メディアをキャプチャするときに、異なる領域内/外に物を維持するために、メディアをフレーム化できるようにする。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a camera user interface that includes a first area (eg, 604) (eg, a camera display area) is displayed via a display device before receiving a request to display a representation of the media item. do. In some embodiments, the first region comprises a representation of the first portion of the field of view of one or more cameras. In some embodiments, the camera user interface includes a second area (eg, 602, 606) (eg, a camera control area). In some embodiments, the second region comprises a representation of a second portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is visually distinguished from the representation of the first portion (eg, having a dark appearance) (eg, one or more). Has a translucent overlay on the second part of the camera's field of view). In some embodiments, the representation of the second portion of the field of view of one or more cameras has a darker appearance as compared to the representation of the first portion of the field of view of one or more cameras. In some embodiments, the representation of the second portion of the field of view of one or more cameras is located above and / or below the camera display area within the camera user interface. For content that is the main content captured and used to display the media and additional content that can be captured to display the media by displaying a second area that is visually different from the first area. Provide the feed to the user so that the user can frame the media to keep things in and out of different areas when capturing the media. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、自動メディア補正基準が満たされているという判定に従って(3806)、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す第1の補正アフォーダンス(例えば、例えば、図37Mの1036b)(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されたことを示す、第1の状態(例えば、アクティブ状態(例えば、選択されているものとして示される(例えば、プレスされて、太字、暗色化され、第1の文字又はマークとともに第1の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))を表示する(3814)。自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the automatic media correction criteria are met (3806), the electronic device has a first correction affordance indicating that the automatic adjustment has been applied to a previously captured media item (3806). For example, the first state (eg, the active state (eg, selected)) (eg, 1036b in FIG. 37M) (eg, indicating that the auto-adjustment has been applied to a previously captured media item). (For example, pressed, bolded, darkened, and displayed in the first color with the first letter or mark))), the auto-adjusted affordance (eg, selectable user interface object)). Display (3814). To provide feedback to the user about the current state of the affordance by displaying an auto-adjustment affordance that indicates that the auto-adjustment will be applied, and to reverse the adjustment applied to the expression when the user activates the icon. Provides the user with visual feedback indicating that the action is taken. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、自動メディア補正基準が満たされていないという判定に従って(3808)、電子デバイスは、第2の補正アフォーダンス(例えば、図37Uの1036bなど)を表示する(3818)。いくつかの実施形態では、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト))。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なる。いくつかの実施形態では、第2のコンテンツを使用して、メディアをキャプチャすることができるという判定に従って、電子デバイスは、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す第3の自動調整アフォーダンスを表示し、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の自動調整アフォーダンス(例えば、自動調整が以前にキャプチャされたメディアアイテムに適用されていないことを示す、第2の状態(例えば、非アクティブ状態(例えば、未選択であるものとして示される(例えば、プレスされず、太字又は明るくなく、第2の文字又はマークとともに第2の色で表示される)))で表示される、自動調整アフォーダンス)を表示する。いくつかの実施形態では、第2の自動調整アフォーダンスは、第1の自動調整アフォーダンスとは視覚的に異なり、及び第2のコンテンツがメディアを補正するために使用されないという判定に従って、電子デバイスは、第1の自動調整アフォーダンス及び第2の自動調整アフォーダンスを表示するのをやめる。いくつかの実施形態では、メディア内の第2のコンテンツを使用して、補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み(例えば、水平、垂直)補正)の分析に基づいて、第2のコンテンツがメディアを補正するために使用され得るという判定を行う。いくつかの実施形態では、分析は、信頼度確信スコアを計算し、信頼度確信スコアを閾値と比較することを含む。いくつかの実施形態では、信頼度確信スコアが閾値を上回る(又は等しい)場合、コンテンツがメディアを補正するために使用され得るという判定を行う。自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現への調整を実行するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, according to the determination that the automatic media correction criteria are not met (3808), the electronic device displays a second correction affordance (eg, 1036b in FIG. 37U) (3818). In some embodiments, a second auto-adjustment affordance (eg, auto-adjustment is not applied to a previously captured media item) indicating that the auto-adjustment has not been applied to a previously captured media item. A second state (eg, an inactive state (eg, shown as unselected (eg, unpressed, not bold or bright,) displayed in a second color with a second letter or mark). Auto-adjusted affordances (eg, selectable user interface objects) displayed in)). In some embodiments, the second auto-adjustment affordance is visually different from the first auto-adjustment affordance. In some embodiments, according to the determination that the second content can be used to capture the media, the electronic device indicates that the auto-tuning has not been applied to the previously captured media item. A second auto-adjustment affordance (eg, auto-adjustment is applied to previously captured media items) that displays the auto-adjustment affordance of 3 and indicates that the auto-adjustment has not been applied to previously captured media items. A second state (eg, an inactive state (eg, shown as unselected (eg, unpressed, not bold or bright,) with a second letter or mark) indicating that it is not. Display the automatic adjustment affordance) displayed in))). In some embodiments, the electronic device is subject to a determination that the second auto-adjustment affordance is visually different from the first auto-adjustment affordance and that the second content is not used to correct the media. Stop displaying the first auto-adjustment affordance and the second auto-adjustment affordance. In some embodiments, the second content in the media is used to correct one or more visual aspects (eg, video stabilization, horizontal line correction, skew / distortion (eg horizontal, vertical) correction). Based on the analysis of, it is determined that the second content can be used to correct the media. In some embodiments, the analysis involves calculating a confidence confidence score and comparing the confidence confidence score with a threshold. In some embodiments, if the confidence confidence score exceeds (or is equal to) a threshold, it is determined that the content can be used to correct the media. By displaying an auto-adjustment affordance that indicates that the auto-adjustment is not applied, the action to provide feedback to the user about the current state of the affordance and to perform the adjustment to the representation when the user activates the icon. Provide users with visual feedback to indicate that it will be done. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第1の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)を表示している間に、電子デバイスは、第1の自動調整アフォーダンスの選択に対応する第1の入力(例えば、3750m)(例えば、タップ)を受信する。 In some embodiments, a previously captured media item that displays a first autofit affordance (eg, 1036b) and contains a first content and a combination of second content via a display device. While displaying the representation (eg, 3730d3), the electronic device receives a first input (eg, 3750m) (eg, tap) corresponding to the selection of the first auto-adjustment affordance.
いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスは、表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスはまた、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示を停止する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されないことを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応答して、表現への調整を実行するための動作が行われたことを示す、視覚的フィードバックをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving the first input corresponding to the selection of the first autofit affordance, the electronic device comprises the first content via the display device and the first. Display a representation (eg, 3730c1) of a previously captured media item that does not contain the content of 2. In some embodiments, in response to receiving a first input corresponding to the selection of the first autofit affordance, the electronic device also includes a first content and a combination of the second content previously. Stops displaying the representation of media items captured in. In some embodiments, displaying a representation of a previously captured media item that includes the first content and does not include the second content comprises a combination of the first content and the second content. Replace with a representation of the previously captured media item representation. Update the display of the auto-adjustment affordance to indicate that the auto-adjustment is not applied to provide the user with feedback on the current state of the behavior and to adjust the representation in response to the previous activation of the affordance. Provide users with visual feedback that an action has been taken to perform. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、第2の自動調整アフォーダンス(例えば、1036b)を表示し、かつ表示デバイスを介して、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を表示している間に、電子デバイスは、第2の自動調整アフォーダンスの選択に対応する第2の入力(例えば、3750b)(例えば、タップ)を受信する。いくつかの実施形態では、第2の自動調整アフォーダンスの選択に対応する第2の入力を受信したことに応答して、電子デバイスは、表示デバイスを介して、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)を表示する。いくつかの実施形態では、第1の自動調整アフォーダンスの選択に対応する第1の入力を受信したことに応答して、電子デバイスはまた、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現の表示を停止する。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示することを、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現の表示に置き換える。自動調整が適用されることを示す自動調整アフォーダンスの表示を更新することにより、動作の現在の状態についてのフィードバックをユーザに提供し、かつアフォーダンスの以前のアクティブ化に応答して、表現への調整を反転するための動作が行われたことを示す、視覚的フィードバックをユーザに、更なるコントロールをユーザに提供する。改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, previously captured media displaying a second autofit affordance (eg, 1036b) and containing the first content and not including the second content via the display device. While displaying the representation of the item (eg, 3730c1), the electronic device receives a second input (eg, 3750b) (eg, tap) corresponding to the selection of the second auto-adjustment affordance. In some embodiments, the electronic device receives the first content and the second content via the display device in response to receiving a second input corresponding to the selection of the second autofit affordance. Displays a representation of a previously captured media item (eg, 3730c2) that contains a combination of. In some embodiments, the electronic device also includes a first content and a second content in response to receiving a first input corresponding to the selection of the first autofit affordance. Stop displaying representations of previously captured media items. In some embodiments, displaying a representation of a previously captured media item that includes a first content and a combination of the second content includes the first content and does not include the second content. Replace with a representation of the previously captured media item representation. Adjusting to the representation by updating the auto-tuning affordance display to indicate that auto-tuning is applied, providing feedback to the user about the current state of the behavior, and in response to previous activation of the affordance. It provides the user with visual feedback and further control to indicate that an action has been taken to invert. By providing the user with improved visual feedback, the user can improve the usability of the device (eg, assist the user in providing appropriate input when operating / interacting with the device, and the user. Reduces power usage and device battery life by making the user-device interface more efficient (by reducing errors) and, in addition, allowing users to use the device faster and more efficiently. To improve.
いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、画像(例えば、静止写真、アニメーション化された画像(例えば、複数の画像))である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730d3)は、縁部部分(例えば、水平線(例えば、画像内の補正された(例えば、直線化された)水平線)(例えば、スカイライン))を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない、以前にキャプチャされたメディアアイテムの表現(例えば、3730d1)は、縁部部分を更に含まない(例えば、図24A〜図24Hに関連して上述したように、及び図25A〜図25Bに関連して上述した方法2500で)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、実視水平線をまっすぐにするために第1のコンテンツの表現を回転すること、及び表現の回転から残された空の空間を満たすために第2のコンテンツの一部分の表現に導入することによって、視認可能な第1の水平線が作成されることを含む。いくつかの実施形態では、電子デバイスは、図24A〜図24Hに関連して上述したようなものと同様の技術及び図25A〜図25Bのフロー図のに関連して上述した方法2500を使用して、画像の垂直遠近歪及び/又は水平遠近歪を補正する。
In some embodiments, the previously captured media item is an image (eg, a still photo, an animated image (eg, a plurality of images)). In some embodiments, a previously captured representation of a previously captured media item (eg, 3730d3), including a first content and a combination of the second content, has an edge portion (eg, a horizon (eg, a correction in the image). Includes (eg, straightened) horizon) (eg, skyline). In some embodiments, the previously captured representation of the media item (eg, 3730d1), which includes the first content and does not contain the second content, further includes no edge portion (eg, FIG. (As described above in connection with FIGS. 24A-24H, and in
いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、ビデオ(例えば、複数の画像)である。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730z1)は、第1の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されたビデオ)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現が、第1の量の移動とは異なる第2の量の移動(例えば、ビデオの次にくるフレームの間の移動)(例えば、安定化されていないビデオ)を含む。いくつかの実施形態では、電子デバイスは、ビデオ内の移動量を低減するために、第2のコンテンツを使用する(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現内に示される)。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現は、より安定なバージョンである(例えば、ビデオが第1のコンテンツよりもキャプチャされたメディアが再生され、第2の移動量を含む第2のコンテンツを含まないときのフレーム間の(例えば、滑らかな)動き(例えば、ぼかし、振動)を低減するために、(例えば、ビデオの視覚的に表示されるフレームの外側(例えば、第2のコンテンツ)にあるコンテンツ(例えば、第1のコンテンツに対応するコンテンツ)を使用して)修正された元のビデオ(例えば、より不安定であるビデオ)の1つ以上の修正されたフレームを含むバージョン。いくつかの実施形態では、動きを低減するために、電子デバイスは、複数のビデオフレームの第1のコンテンツをシフトし、かつ各ビデオフレームについて、第1のコンテンツのシフトから得られた1つ以上のギャップを埋める(例えば、それぞれのビデオフレームの表現を表示するために、第2のコンテンツのうちのいくつかを第1のコンテンツに追加する)ために第2のコンテンツを使用する。 In some embodiments, the previously captured media item is a video (eg, multiple images). In some embodiments, the previously captured representation of the media item (eg, 3730z1), including the first content and the combination of the second content, comes after the first amount of movement (eg, video). Includes movement between frames (eg, stabilized video). In some embodiments, the representation of a previously captured media item that contains the first content and does not contain the second content is a second amount of movement (eg, different from the first amount of movement). Includes moving between frames following the video (eg, unstabilized video). In some embodiments, the electronic device uses a second content to reduce the amount of movement in the video (eg, previously captured, including a combination of the first content and the second content). Shown in the representation of the media item). In some embodiments, the representation of the previously captured media item, including the first content and the combination of the second content, is a more stable version (eg, the video is captured more than the first content). To reduce inter-frame (eg, smooth) movement (eg, blurring, vibration) when the media is playing and does not contain the second content, including the second amount of movement (eg, of the video). The original video modified (eg, using content that corresponds to the first content) that is outside the visually displayed frame (eg, the second content) (eg, more unstable) A version of a video) that includes one or more modified frames. In some embodiments, in order to reduce motion, the electronic device shifts the first content of multiple video frames, and each video. For frames, fill one or more gaps from the shift of the first content (eg, some of the second content to the first content to display the representation of each video frame. Use the second content to add).
いくつかの実施形態では、以前にキャプチャされたメディアアイテムは、(例えば、第2のコンテンツは、含む)識別可能な(例えば、識別された、視覚的に観察可能な/観察された、検出可能な/検出された)オブジェクト(例えば、ボール、人の顔)を含む。いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c2)は、識別可能なオブジェクトの一部分(例えば、第1のコンテンツによって表される識別可能な/識別されたオブジェクトの一部分)を含む。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)は、識別可能なオブジェクトの部分を含まない。いくつかの実施形態では、電子デバイスは、識別可能なオブジェクトが第2のコンテンツを含まない第1のコンテンツの表現内にカットオフされない(例えば、視覚オブジェクトの全部分が含まれる)ように、第2のコンテンツを使用して、第2のコンテンツを含まない第1のコンテンツの表現をリフレーム(例えば、オブジェクト(例えば、サブジェクト)をフレーム内に持ち込む))する。 In some embodiments, previously captured media items (eg, include a second content) are identifiable (eg, identified, visually observable / observed, detectable). Includes (eg, balls, human faces) objects (eg, balls, human faces). In some embodiments, a previously captured representation of a media item (eg, 3730c2) that includes a first content and a combination of second content is by a portion of an identifiable object (eg, by the first content). Includes the identifiable / identified part of the object represented). In some embodiments, the previously captured representation of a previously captured media item (eg, 3730c1) that includes the first content and does not include the second content does not include a portion of the identifiable object. In some embodiments, the electronic device is such that the identifiable object is not cut off within the representation of the first content that does not contain the second content (eg, includes the entire portion of the visual object). The content of 2 is used to reframe the representation of the first content that does not include the second content (eg, bring an object (eg, a subject) into the frame).
いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアアイテムが1つ以上のカメラの視野の第2の部分からの第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクト(例えば、ビデオ安定化、水平線補正、スキュー/歪み補正)を含むと判定される(例えば、それぞれの信頼度確信閾値を上回る)と満たされる第2の基準を含む。いくつかの実施形態では、以前にキャプチャされたメディアアイテムのコンテンツを使用して判定される計算された信頼度確信値に基づいて、以前にキャプチャされたメディアアイテムが1つ以上の視覚特性を含むという判定を行う。いくつかの実施形態では、計算された信頼度確信値が閾値を上回る(又は等しい)場合、判定が満たされる。いくつかの実施形態では、計算された信頼度確信値が閾値を下回る(又は等しい)場合、判定が満たされない。 In some embodiments, the automatic media correction criterion is one or more previously captured media items that can be corrected using a second content from a second part of the field of view of one or more cameras. Includes a second criterion that is determined to include visual aspects (eg, video stabilization, horizon correction, skew / distortion correction) (eg, above their respective confidence confidence thresholds). In some embodiments, the previously captured media item contains one or more visual characteristics based on a calculated confidence confidence value determined using the content of the previously captured media item. Is judged. In some embodiments, the determination is satisfied if the calculated confidence confidence value exceeds (or is equal to) the threshold. In some embodiments, the determination is not satisfied if the calculated confidence confidence value is below (or equal to) the threshold.
いくつかの実施形態では、自動メディア補正基準は、以前にキャプチャされたメディアが表示された(例えば、閲覧された)前に(又は写真ロールユーザインタフェース又は写真ライブラリを閲覧する要求又は最近キャプチャされたメディアを閲覧する要求などの、表示する要求が電子デバイスによって受信された前に)第2の基準が満たされたと満たされる第3の基準を含む。 In some embodiments, the automatic media correction criterion is a request to view (or a photo roll user interface or photo library) before (eg, viewed) previously captured media, or was recently captured. Includes a third criterion that is met when the second criterion is met (before the request to display is received by the electronic device), such as a request to browse the media.
いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされているという判定に従って、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに第1の動作を行わせる第3の補正アフォーダンス(例えば、1036b)を表示する。いくつかの実施形態では、第1の動作は、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現に置き換えることを含む。所定の条件が満たされているときに、自動調整が適用されることを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is a first, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are met. At the same time as the representation of the previously captured media item, including the content and the combination of the second content, it displays a third corrected affordance (eg, 1036b) that causes the electronic device to perform the first action when selected. .. In some embodiments, the first action includes a representation of a previously captured media item that includes a first content and a combination of the second content, a first content, and a second content. Includes replacing with a previously captured representation of a previously captured media item. Provides feedback to the user about the current state of the affordance by displaying an auto-adjustment affordance that indicates that the auto-adjustment will be applied when certain conditions are met, and the user activates the icon. It then provides the user with visual feedback indicating that an action is taken to invert the adjustments applied to the representation. By providing the user with improved visual feedback when certain conditions are met, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) Device power usage by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、自動メディア補正基準は、自動適用設定(例えば、3702a1)が有効化されると満たされ、かつ自動適用設定が無効化されると満たされない基準を含む。いくつかの実施形態では、自動適用設定(例えば、3702a1)は、ユーザ構成可能設定である(例えば、電子デバイスは、ユーザ入力(例えば、設定ユーザインタフェースを介して提供された入力)に応答して、自動適用設定の状態を修正する)。 In some embodiments, the automatic media correction criteria include criteria that are met when the auto-apply setting (eg, 3702a1) is enabled and are not met when the auto-apply setting is disabled. In some embodiments, the auto-apply setting (eg, 3702a1) is a user-configurable setting (eg, the electronic device responds to user input (eg, input provided via the configuration user interface). , Correct the state of automatic application settings).
いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、及び第1の1組の基準(例えば、選択可能アフォーダンスが存在する必要があるかどうかを管理する1組の基準)が満たされているという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現と同時に、選択されると、電子デバイスに、第2の動作を行わせる、第4の補正アフォーダンス(例えば、1036b)を表示する(例えば、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に置き換える)。いくつかの実施形態では、第2のコンテンツが自動補正動作で使用するのに好適ではない(例えば、第1のコンテンツとともに表現内に自動表示するのに好適ではないと電子デバイスが判定すると、第1の1組の基準は、満たされない。所定の条件が満たされているときに、自動調整が適用されないことを示す自動調整アフォーダンスを表示することにより、アフォーダンスの現在の状態についてのフィードバックをユーザに提供し、かつユーザがアイコンをアクティブ化すると表現に適用された調整を反転するための動作が行われることを示す、視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are not met, and according to a first set of. According to the determination that the criteria (eg, a set of criteria governing whether the selectable affordance needs to exist) are met, the electronic device contains the first content and includes the second content. At the same time as the representation of previously captured media items, when selected, the electronic device displays a fourth corrected affordance (eg, 1036b) that causes the electronic device to perform a second action (eg, first content). Replace the previously captured representation of the previously captured media item with the first content and the second content combination with the representation of the previously captured media item containing the first content and the second content). In some embodiments, the electronic device determines that the second content is not suitable for use in the auto-correction operation (eg, is not suitable for auto-displaying in the representation with the first content). A set of criteria of 1 is not met. When certain conditions are met, the user is given feedback on the current state of the affordance by displaying an auto-adjustment affordance indicating that the auto-adjustment is not applied. Provides visual feedback to the user that provides and indicates that when the user activates the icon, an action is taken to reverse the adjustment applied to the representation. Improved when certain conditions are met. Providing visual feedback to the user enhances the usability of the device and assists the user in providing a user-device interface (eg, providing appropriate input when manipulating / interacting with the device). By making the device more efficient (by reducing user error) and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.
いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、及び第1の1組の基準が満たされていないという判定に従って、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現と同時に、非選択可能インジケータ(例えば、3734)(例えば、選択されると、電子デバイスに、動作を行わせない(例えば、任意の動作を行わせない)インジケータ;非選択可能補正インジケータは、ユーザ入力に応答しないユーザインタフェースのグラフィカル要素である)を表示する。いくつかの実施形態では、第1の動作及び第2の動作は、同一の動作である。いくつかの実施形態では、第1の動作及び第2の動作は、異なる動作である。いくつかの実施形態では、第1の補正インジケータ及び第2の補正インジケータは、同一の視覚外観を有する。いくつかの実施形態では、第1の補正アフォーダンス及び第2の補正アフォーダンスは、異なる視覚外観を有する(例えば、第1の補正アフォーダンスは、太字外観を有し、かつ第2の補正アフォーダンスは、太字外観を有さない)。いくつかの実施形態では、非選択可能インジケータを表示することは、第2の補正アフォーダンスを表示するのをやめることを含む(例えば、第2の補正アフォーダンスの表示及び非選択可能インジケータの表示は、互いに排他的である)。いくつかの実施形態では、第2の補正アフォーダンスは、表示されると、第1の場所に表示され、かつ非選択可能インジケータは、表示されると、第1の場所に表示される。追加のコンテンツがキャプチャされたことを示す非選択可能インジケータを表示することにより、追加のコンテンツがキャプチャされたが、ユーザは、インジケータの場所に対応する入力に応答して、画像を自動的に調整するためにコンテンツを使用することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item, and according to the determination that the automatic media correction criteria are not met, and according to a first set of. A non-selectable indicator (eg, 3734) (eg, selection) at the same time as the representation of a previously captured media item that contains the first content and does not contain the second content, according to the determination that the criteria are not met. When done, the electronic device displays an indicator that does not perform any action (eg, does not perform any action); the non-selectable correction indicator is a graphical element of the user interface that does not respond to user input). In some embodiments, the first and second operations are the same operation. In some embodiments, the first and second actions are different actions. In some embodiments, the first correction indicator and the second correction indicator have the same visual appearance. In some embodiments, the first corrected affordance and the second corrected affordance have different visual appearances (eg, the first corrected affordance has a bold appearance and the second corrected affordance is bold). Has no appearance). In some embodiments, displaying the non-selectable indicator comprises stopping the display of the second complement affordance (eg, displaying the second complement affordance and displaying the non-selectable indicator). Exclusive to each other). In some embodiments, the second complement affordance is displayed in the first place when displayed, and the non-selectable indicator is displayed in the first place when displayed. Additional content was captured by displaying a non-selectable indicator indicating that additional content was captured, but the user automatically adjusts the image in response to the input corresponding to the location of the indicator. Provide users with visual feedback that the content cannot be used to do so. By providing the user with improved visual feedback when certain conditions are met, the usability of the device is enhanced and the user-device interface (eg, when manipulating / interacting with the device) Device power usage by assisting the user in providing proper input and reducing user error) and by allowing the user to use the device faster and more efficiently. Is suppressed and battery life is improved.
いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及びコンテンツ処理基準が満たされているという判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)(例えば、以前にキャプチャされたメディアアイテムが処理中であることを示すアニメーション化されたグラフィカルオブジェクト(例えば、回転アイコン又はアニメーション化されたプログレスバー))を表示する(3814)。いくつかの実施形態では、コンテンツ処理基準は、電子デバイスが以前にキャプチャされたメディアアイテム上での処理動作(例えば、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を自動的に生成したか若しくはしなかったかどうかを判定する動作、又は第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャしたメディアアイテムの表現を生成するために、どのように第1のコンテンツと第2のコンテンツとを組み合わせるのかを判定する動作を完了していないと満たされる。いくつかの実施形態では、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信したことに応答して(3804)、及びコンテンツ処理基準が満たされていないという判定に従って(3808)、電子デバイスは、コンテンツ処理インジケータを表示するのをやめる(3820)。いくつかの実施形態では、コンテンツ処理インジケータは、表示されると、第1の場所に表示される(例えば、表示されると、第1の補正アフォーダンス、第2の補正アフォーダンス、及び非選択可能インジケータが表示される第1の場所。所定の条件が満たされているときにのみ、進度インジケータを表示することにより、ユーザは、現在表示されている表現に対応するメディアアイテムが依然として処理中である追加のコンテンツを有するかどうかを迅速に認識することができ、表示される現在の表現が変化することができるという通知をユーザに提供する。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display a representation of a previously captured media item (3804), and according to the determination that the content processing criteria are met (3808), the electronic device. Displays a content processing indicator (eg, 3732) (eg, an animated graphical object (eg, a rotating icon or an animated progress bar) that indicates that a previously captured media item is being processed). (3814). In some embodiments, the content processing criteria are that the electronic device operates on previously captured media items (eg, previously captured media items that include a first content and a second content combination). How to generate a representation of a previously captured media item that contains a combination of the first content and the second content, or the action of determining whether or not the representation of It is satisfied that the operation of determining whether to combine the first content and the second content has not been completed. In some embodiments, a request to display a representation of a previously captured media item has been received. In response to (3804), and according to the determination that the content processing criteria are not met (3808), the electronic device ceases to display the content processing indicator (3820). In some embodiments, the content processing The indicator is displayed in the first place when displayed (eg, the first place where the first correction affordance, the second correction affordance, and the non-selectable indicator are displayed when displayed. By displaying the progress indicator only when certain conditions are met, the user can quickly determine if the media item corresponding to the currently displayed representation has additional content that is still being processed. Provides the user with a notification that the current representation that can be recognized and displayed can change. Optimized behavior when a set of states is satisfied without the need for further user input. By performing to improve the usability of the device (for example, by assisting the user in providing appropriate input when operating / interacting with the device and reducing user error). Reduce power usage and improve device battery life by making the user-device interface more efficient and, in addition, allowing users to use the device faster and more efficiently.
いくつかの実施形態では、コンテンツ処理インジケータを表示している間に、及びコンテンツ処理基準がもはや満たされていない(例えば、コンテンツ処理が完了したため)という判定に従って、電子デバイスは、コンテンツ処理インジケータ(例えば、3732)の表示を停止する。いくつかの実施形態では、コンテンツ処理インジケータは、第1の補正アフォーダンス(例えば、自動メディア補正基準が満たされている場合)、第2の補正アフォーダンス(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされている場合)、又は非選択可能インジケータ(例えば、自動補正基準が満たされておらず、かつ第1の1組の基準が満たされていない場合)に置き換えられる。 In some embodiments, while displaying the content processing indicator, and according to the determination that the content processing criteria are no longer met (eg, because the content processing is complete), the electronic device is subjected to the content processing indicator (eg, because the content processing is complete). , 3732) is stopped. In some embodiments, the content processing indicator has a first correction affordance (eg, if the automatic media correction criteria are met), a second correction affordance (eg, if the automatic correction criteria are not met). And when the first set of criteria is met), or to a non-selectable indicator (eg, when the auto-correction criteria are not met and the first set of criteria is not met) Will be replaced.
いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、及びコンテンツ処理インジケータを表示している間に、及びコンテンツ処理基準がもはや満たされていないという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730c1)を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現(例えば、3730c3)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を要求することなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that contains the first content and does not contain the second content, and while displaying the content processing indicator. And, according to the determination that the content processing criteria are no longer met, the electronic device presents a representation of a previously captured media item (eg, 3730c1) that includes the first content and does not contain the second content. Replace with a previously captured representation of the media item (eg, 3730c3) containing the first content and the combination of the second content. By updating the display representation only when certain conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、及びコンテンツ処理インジケータを表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Kの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)を表示する。いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムのその(the of)第2の描写を表示している間に、及びコンテンツ処理基準がもはや満たされていないという判定に従って、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの第2の表現を、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの第2の表現(例えば、図37Mの3724)(例えば、縮小されたサイズ表現;以前にキャプチャされたメディアアイテムを含む1組の以前にキャプチャされたメディアアイテムの1組の縮小されたサイズ表現内の縮小されたサイズ表現;メディアアイテムを表示するサムネイル)に置き換える。所定の条件が満たされているときにのみ、表示表現を更新することにより、ユーザは、追加のユーザ入力を要求することなく調整された表現を迅速に認識することができる。更なるユーザ入力を必要とせずに1組の状態が満たされた場合に最適化された動作を実行することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ−デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a representation of a previously captured media item that contains the first content and does not contain the second content, and while displaying the content processing indicator. , The electronic device contains a second representation of previously captured media items that include the first content and no second content (eg, 3724 in FIG. 37K) (eg, reduced size representation; previously. Displays a reduced size representation within a reduced size representation of a set of previously captured media items that contains the captured media item; a thumbnail that displays the media item. In some embodiments, while displaying the second depiction of a previously captured media item that includes the first content and does not contain the second content, and content processing. According to the determination that the criteria are no longer met, the electronic device will display a second representation of the previously captured media item containing the first content and not the second content, the first content and the second. A second representation of a previously captured media item containing a combination of two contents (eg, 3724 in FIG. 37M) (eg, reduced size representation; a set of previously captured media items containing a previously captured media item). Replace with a reduced size representation within a set of reduced size representations of the captured media item; a thumbnail displaying the media item). By updating the display representation only when certain conditions are met, the user can quickly recognize the adjusted representation without requiring additional user input. Improves device usability by performing optimized actions when a set of states is satisfied without the need for further user input (eg, manipulating / interacting with the device). Make the user-device interface more efficient (by assisting the user in providing the right input at times and reducing user error), plus allowing the user to use the device faster and more efficiently. Reduces power usage and improves device battery life.
いくつかの実施形態では、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K〜図37Mの3730d1〜3730d3の反転)を表示し、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現に遷移する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツと第2のコンテンツとを組み合わせた表現から第1のコンテンツの表現へと遷移するクロスフェードアニメーションを表示する)。いくつかの実施形態では、図37K〜図37Mにおけるアニメーションを反転させることができる。 In some embodiments, the electronic device displays the first content and the second content while displaying a representation of a previously captured media item that includes a first content and a combination of the second content. Displays an animation of the representation of a previously captured media item containing a combination of (eg, inversions of 3730d-1730d3 in FIGS. 37K-37M), including the first content and not including the second content. Transition to the representation of the media item captured in (eg, zoom in or out, parallel movement, and / or a cross transition from the representation of the combination of the first content and the second content to the representation of the first content. Show fade animation). In some embodiments, the animation in FIGS. 37K-37M can be inverted.
いくつかの実施形態では、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現を表示している間に、電子デバイスは、第1のコンテンツを含み、かつ第2のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現のアニメーション(例えば、図37K〜図37Mの3730d1〜3730d3)を表示し、第1のコンテンツ及び第2のコンテンツの組み合わせを含む以前にキャプチャされたメディアアイテムの表現に遷移する(例えば、ズームイン若しくはアウト、平行移動、及び/又は第1のコンテンツの表現から第1のコンテンツ及び第2のコンテンツの組み合わせの表現へと遷移するクロスフェードアニメーションを表示する)。 In some embodiments, the electronic device includes the first content while displaying a representation of a previously captured media item that includes the first content and does not contain the second content. And before displaying an animation of the representation of a previously captured media item that does not include the second content (eg, 3730d1-3730d3 of FIGS. 37K-37M) and includes a combination of the first content and the second content. Transition to the representation of the media item captured in (eg, zoom in or out, parallel movement, and / or crossfade transitioning from the representation of the first content to the representation of the combination of the first content and the second content. Show animation).
いくつかの実施形態では、電子デバイスは、1つ以上のカメラの視野の第1の部分(例えば、1つ以上のカメラの視野の主要又は中心部分であって、そのうちの大部分が、メディアアイテムを表示するときに1つ以上のカメラの視野の表現に含まれる)からの第3のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ))を含み、1つ以上のカメラの視野の第2の部分(例えば、1つ以上のカメラの視野の主要又は中心部分の外側であり、かつ任意選択的に、1つ以上のカメラの視野の主要又は中心部分である1つ以上のカメラの異なるカメラによってキャプチャされる、1つ以上のカメラの視野の一部分)からの第4のコンテンツ(例えば、画像データ(例えば、コンピュータシステム上に記憶された画像データ;第2の部分からの任意のコンテンツを含まない)は含まない、メディアアイテム(例えば、静止画像、ビデオ)の表現(例えば、3730a)を表示する要求(例えば、3750v)(例えば、サムネイル画像の選択、画像キャプチャアフォーダンス(例えば、選択可能ユーザインタフェースオブジェクト)(例えば、アクティブ化されると、第1の領域に表示されたコンテンツの画像をキャプチャするシャッターアフォーダンス)の選択)を受信する。いくつかの実施形態では、1つ以上のカメラの視野の第1の部分からの第3のコンテンツを含み、かつ1つ以上のカメラの視野の第2の部分からの第4のコンテンツを含まない以前にキャプチャされたメディアアイテムの表現(例えば、3730a)を表示する要求を受信したことに応答して、電子デバイスは、1つ以上のカメラの視野の第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーション(例えば、1036b及び/又は3724)を表示するのをやめる。いくつかの実施形態では、電子デバイスは、第1の自動調整アフォーダンス(例えば、1036b)を表示するのをやめる。追加のコンテンツがメディアの表現を調整するのに利用可能でないというインジケーションを表示するのをやめることにより、追加のコンテンツがキャプチャされなかったため、ユーザが追加のコンテンツでメディアの表現を調整することができないという視覚的フィードバックをユーザに提供する。所定の条件が満たされるときに、改善された視覚的フィードバックをユーザに提供することにより、デバイスの操作性が高められ、ユーザ−デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。 In some embodiments, the electronic device is a first portion of the field of view of one or more cameras (eg, a major or central portion of the field of view of one or more cameras, most of which are media items. Includes a third content (eg, image data (eg, image data stored on a computer system)) from one or more cameras (included in the representation of the field of view of one or more cameras) when displaying one or more. A second portion of the camera's field of view (eg, one that is outside the major or central portion of the field of view of one or more cameras and optionally is the major or central portion of the field of view of one or more cameras. Fourth content (eg, image data (eg, image data stored on a computer system; from the second portion)) from one or more cameras captured by different cameras of the above cameras. Requests (eg, 3750v) to display representations (eg, 3730a) of media items (eg, still images, videos) that do not include any content of (eg, thumbnail image selection, image capture affordance (eg, image capture affordance) For example, a selectable user interface object) (eg, a selection of shutter accommodation that captures an image of the content displayed in the first area when activated) is received. In some embodiments, one. Representation of previously captured media items that include the third content from the first part of the camera's field of view and does not contain the fourth content from the second part of the camera's field of view. In response to receiving a request to display (eg, 3730a), the electronic device has an indication that additional media content outside the first portion of the field of view of one or more cameras is available (eg, 3730a). For example, stop displaying 1036b and / or 3724). In some embodiments, the electronic device stops displaying the first auto-adjustment affordance (eg, 1036b). Additional content is on the media. By stopping displaying the indication that it is not available to adjust the representation, we give visual feedback that the user cannot adjust the representation of the media with the additional content because the additional content was not captured. Provide users. Provide users with improved visual feedback when certain conditions are met. Improves the usability of the device and makes the user-device interface (eg, by assisting the user in providing appropriate input when operating / interacting with the device and reducing user error). By making the device more efficient and, in addition, allowing the user to use the device faster and more efficiently, the power usage of the device is reduced and battery life is improved.
方法3800に関して上述された処理(例えば、図38A〜図36C)の詳細はまた、上述の方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700、900、1100、1300、1500、1700、1900、2100、2300、2500、2700、2800、3000、3200、3400、及び3600は、方法3800を参照して上述した、様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法3200、任意選択的に、方法3800に関連して上述したように、メディア補正技術を採用する。簡潔にするために、これらの詳細は、以下で繰り返さない。
It should be noted that the details of the processes described above for Method 3800 (eg, FIGS. 38A-36C) are also applicable to the methods described above in a similar manner. For example,
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。 The above has been described with reference to specific embodiments for purposes of illustration. However, the above exemplary discussion is not intended to be exhaustive or to limit the invention to the exact forms disclosed. Many modifications and modifications are possible in light of the above teachings. These embodiments have been selected and described to best illustrate the principles of the art and its practical application. This will allow other skill in the art to make the best use of the present technology and various embodiments with various modifications suitable for the intended specific application.
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。 Although the present disclosure and examples have been fully described with reference to the accompanying drawings, it should be noted that various changes and amendments will be apparent to those skilled in the art. Such changes and amendments are to be understood as being within the scope of this disclosure and examples, as defined by the claims.
上述したように、本技術の一態様は、メディアを管理するための様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。このようなパーソナル情報データとしては、場所ベースデータ、又は任意の他の識別情報若しくはパーソナル情報を挙げることができる。 As mentioned above, one aspect of the technology is the collection and use of data available from various sources for managing media. The disclosure, in some cases, includes personal information data that uniquely identifies a particular person, or personal information data that can be used to contact or locate a particular person. I'm thinking about getting it. Such personal information data may include location-based data, or any other identification or personal information.
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、より良くメディア管理できるようにするために使用することができる。したがって、そのような個人情報データの使用により、ユーザは、メディアにより容易にキャプチャ、編集、及びアクセスできる。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。 The present disclosure recognizes that the use of such personal information data in the present technology may be in the interest of the user. For example, personal information data can be used to enable better media management. Therefore, the use of such personal information data allows users to easily capture, edit, and access media. Furthermore, other uses for personal information data that benefit the user are also conceived by this disclosure.
本開示は、そのような個人情報データの収集、分析、開示、伝送、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変化するにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。更には、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセスを有する他者が、それらのプライバシーポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はアクセスは、医療保険の相互運用性と説明責任に関する法律(Health Insurance Portability and Accountability Act、HIPAA)などの、連邦法及び/又は州法によって管理することができ、その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国の異なる個人データのタイプに関して、異なるプライバシー慣行が保たれるべきである。 The disclosure envisions that entities involved in the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will comply with robust privacy policies and / or privacy practices. Specifically, such entities implement privacy policies and practices that are generally recognized as meeting or exceeding industry or government requirements for the confidential and rigorous maintenance of personal information data. And should be used consistently. Such policies should be readily accessible to users and should be updated as data collection and / or use changes. Personal information from users should be collected for the legitimate and legitimate use of that entity and should not be shared or sold except for their legitimate use. Furthermore, such collection / sharing should be carried out after notifying the user and obtaining their consent. Furthermore, such entities protect and secure access to such personal information data and ensure that others with access to that personal information data comply with their privacy policies and procedures. You should consider taking all necessary steps to do so. In addition, such entities may be evaluated by a third party to prove their compliance with widely accepted privacy policies and practices. In addition, policies and practices should be adapted to the specific type of personal information data collected and / or accessed, and to applicable legislation and standards, including jurisdiction-specific considerations. Should be adapted. For example, in the United States, the collection or access to certain health data may be governed by federal and / or state law, such as the Health Insurance Portability and Accountability Act (HIPAA). Yes, on the other hand, health data in other countries may be subject to other regulations and policies and should be addressed accordingly. Therefore, different privacy practices should be maintained for different types of personal data in each country.
前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ロケーションサービスの場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。 Despite the above, the disclosure also envisions embodiments that selectively prevent the user from using or accessing the personal information data. That is, it is conceivable that the present disclosure may provide hardware and / or software elements to prevent or prevent access to such personal information data. For example, in the case of location services, the technology may be configured to allow the user to choose "opt-in" or "opt-out" to participate in the collection of personal information data during or at any time during or after registration of the service. In addition to providing "opt-in" and "opt-out" options, the disclosure contemplates providing notices regarding access or use of personal information. For example, the user may be notified at the time of downloading the application that will access the user's personal information data, and then the user may be warned again just before the personal information data is accessed by the application.
更には、本開示の意図は、個人情報データを、非意図的若しくは非認可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、位置データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。 Furthermore, the intent of this disclosure is that personal information data should be managed and processed in a way that minimizes the risk of unintentional or unauthorized access or use. Risk can be minimized by limiting the collection of data and deleting it when it is no longer needed. Furthermore, where applicable, data de-identification can be used to protect user privacy in certain health-related applications. De-specification, where appropriate, removes certain identifiers (eg, date of birth), controls the amount or specificity of stored data (eg, location data rather than address level). It can be facilitated by collecting at the city level), controlling how the data is stored (eg, aggregating the data across users) and / or other methods.
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、メディアは、ユーザに関連付けられたデバイスによりリクエストされたコンテンツ、コンテンツ配信サービスで使用可能な他の非個人情報、若しくは公的に使用可能な情報などの、非個人情報データ又は個人情報の最小限の量のみに基づいて嗜好を推測することにより、キャプチャされ、アクセスされ、及び編集され得る。
[項目1]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
を含む、方法。
[項目2]
前記条件の変化を検出したことに応答して、
前記第1及び第2の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンス及び前記第2のコントロールアフォーダンスを同時に表示すること、
を更に含む、項目1に記載の方法。
[項目3]
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされており、かつ前記第2の既定の条件が満たされていないという判定に従って、前記第1のコントロールアフォーダンスを表示する一方で、前記第2のコントロールアフォーダンスを表示するのをやめることと、
前記第1の既定の条件が満たされておらず、かつ前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示する一方で、前記第1のコントロールアフォーダンスを表示するのをやめることと、
を更に含む、項目1又は2に記載の方法。
[項目4]
前記1つ以上のカメラの前記視野内の光量が、第1の所定の閾値を下回るときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、フラッシュ動作を制御するアフォーダンスである、項目1から3のいずれか一項に記載の方法。
[項目5]
前記電子デバイスが、第1のタイプのアクセサリに接続されているときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、タイマー動作を制御するアフォーダンスである、項目1から4のいずれか一項に記載の方法。
[項目6]
前記1つ以上のカメラの前記視野内の光量が、第2の所定の閾値を下回るときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、低光キャプチャモードを制御するアフォーダンスである、項目1から5のいずれか一項に記載の方法。
[項目7]
第1のキャプチャモードで画像をキャプチャするように前記電子デバイスが構成されるときに、前記第1の既定の条件が満たされ、前記第1のコントロールアフォーダンスが、照明効果動作を制御するアフォーダンスである、項目1から6のいずれか一項に記載の方法。
[項目8]
前記照明効果を制御する前記アフォーダンスを表示している間に、前記照明効果を制御する前記アフォーダンスの選択を受信することと、
前記照明効果を制御する前記アフォーダンスの前記選択を受信したことに応答して、調整すると、前記1つ以上のカメラの前記視野の前記表現に適用された照明効果を調整する、前記照明効果動作を調整するアフォーダンスを表示することと、
を更に含む、項目7に記載の方法。
[項目9]
前記第1のコントロールアフォーダンスを表示している間に、前記第1のコントロールアフォーダンスに関連付けられた前記電子デバイスの特性の現在の状態のインジケーションを同時に表示すること、
を更に含む、項目1から8のいずれか一項に記載の方法。
[項目10]
前記特性が、1つ以上のアクティブ状態及び1つ以上の非アクティブ状態を有し、前記インジケーションを表示することが、前記特性が前記1つ以上のアクティブ状態のうちの少なくとも1つにあるという判定に従う、項目9に記載の方法。
[項目11]
前記特性が、第1のフラッシュ動作設定であり、前記特性の前記現在の状態が、フラッシュ動作が有効化されていることである、項目9から10のいずれか一項に記載の方法。
[項目12]
前記特性が、第2のフラッシュ動作設定であり、前記特性の前記現在の状態が、フラッシュ動作が無効化されていることである、項目9に記載の方法。
[項目13]
前記特性が、画像キャプチャモード設定であり、前記特性の前記現在の状態が、前記画像キャプチャモードが有効化されていることであり、前記電子デバイスが、メディアをキャプチャする要求に対応する入力に応答して、静止画像及びビデオをキャプチャするように構成されている、項目9から12のいずれか一項に記載の方法。
[項目14]
前記特性が、第2の画像キャプチャモード設定であり、前記特性の前記現在の状態が、前記第2の画像キャプチャモードが有効化されていることであり、前記電子デバイスが、メディアをキャプチャする要求に対応する入力に応答して、高ダイナミックレンジイメージング効果を使用してメディアをキャプチャするように構成されている、項目9から13のいずれか一項に記載の方法。
[項目15]
前記カメラコントロール領域が、前記表示デバイスの第1の側に隣接して表示され、前記インジケーションが、前記第1の側とは反対側の前記表示デバイスの第2の側に隣接して表示される、項目9から14のいずれか一項に記載の方法。
[項目16]
前記1つ以上のカメラの前記視野の前記表現が、前記第1のアフォーダンス及び/又は前記第2のアフォーダンスを含む前記カメラユーザインタフェースの一部分に対して延在する、項目1から15のいずれか一項に記載の方法。
[項目17]
前記第1のコントロールアフォーダンスを表示したことに応答して、
前記第1のコントロールアフォーダンスが、第1のタイプのものであるという判定に従って、前記第1のコントロールに関連付けられた第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが、第1のタイプとは異なる第2のタイプのものであるという判定、及び前記第1のコントロールに関連付けられた前記電子デバイスの第2の特性が、アクティブ状態にあるという判定に従って、前記第1のコントロールに関連付けられた前記第2のインジケーションを表示することと、
前記第1のコントロールアフォーダンスが、第1のタイプとは異なる第2のタイプのものであるという判定、及び前記第1のコントロールに関連付けられた前記電子デバイスの前記第2の特性が、非アクティブ状態にあるという判定に従って、前記第1のコントロールに関連付けられた前記第2のインジケーションを表示するのをやめることと、
を更に含む、項目1から16のいずれか一項に記載の方法。
[項目18]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された、1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目1から17のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目19]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムは、項目1から17のいずれか1項に記載の方法を行うための命令と、
を含む、電子デバイス。
[項目20]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目1から17のいずれか1項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目21]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目22]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示することと、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出することと、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示することと、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示することと、
の命令を含む、電子デバイス。
[項目23]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
複数のコントロールアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
第1の既定の条件及び第2の既定の条件が満たされない間に、前記第1の既定の条件に関連付けられた第1のコントロールアフォーダンスを表示することなく、かつ前記第2の既定の条件に関連付けられた第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示する手段と、
前記第1のコントロールアフォーダンスを表示することなく、かつ前記第2のコントロールアフォーダンスを表示することなく、前記カメラユーザインタフェースを表示している間に、条件の変化を検出する手段と、
前記条件の変化を検出したことに応答して、
前記第1の既定の条件が満たされているという判定に従って、前記第1のコントロールアフォーダンスを表示する手段と、
前記第2の既定の条件が満たされているという判定に従って、前記第2のコントロールアフォーダンスを表示する手段と、
を備える、電子デバイス。
[項目24]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、
を含む、方法。
[項目25]
前記カメラコントロール領域が、複数のカメラ設定アフォーダンスを表示するアフォーダンスを含み、前記第2のタイプの前記ジェスチャが、1つ以上のカメラ設定を表示する前記アフォーダンスの選択である、項目24に記載の方法。
[項目26]
前記第2のタイプの前記ジェスチャが、前記カメラディスプレイ領域内の接触の移動である、項目24に記載の方法。
[項目27]
前記第1のタイプの前記ジェスチャが、前記複数のカメラモードアフォーダンスのうちの少なくとも1つの上の接触の移動である、項目24から26のいずれか一項に記載の方法。
[項目28]
以前にキャプチャされたメディアの第1の表現を表示する要求に対応する、前記カメラユーザインタフェース上での第2のジェスチャを検出することと、
前記第2のジェスチャを検出したことに応答して、以前にキャプチャされたメディアの第1の表現を表示することと、
を更に含む、項目24から27のいずれか一項に記載の方法。
[項目29]
以前にキャプチャされたメディアの表現を表示していない間に、前記1つ以上のカメラを使用して第1のメディアのキャプチャを検出することと、
前記第1のメディアの前記キャプチャを検出したことに応答して、
前記第1のメディアの表現を含む、キャプチャされたメディアの1つ以上の表現を表示することと、
を更に含む、項目24から28のいずれか一項に記載の方法。
[項目30]
前記複数のカメラ設定アフォーダンスが、表示されると、メディアをキャプチャする第1の要求に応答して、第1のアスペクト比で表示されるメディアをキャプチャするように前記電子デバイスを構成するアフォーダンスを含む、項目24から29のいずれか一項に記載の方法。
[項目31]
表示されると、前記第1のアスペクト比で表示されるメディアをキャプチャするように前記デバイスが構成されている間に、メディアをキャプチャする第3の要求を受信することと、
メディアをキャプチャする前記第3の要求を受信したことに応答して、前記第1のアスペクト比で前記キャプチャされたメディアの表現を表示することと、
前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現を、第2のアスペクト比を有する前記キャプチャされたメディアの表現に変更する要求を受信することと、
前記要求を受信したことに応答して、前記第2のアスペクト比で前記キャプチャされたメディアの前記表現を表示することと、
を更に含む、項目24から30のいずれか一項に記載の方法。
[項目32]
前記第2のアスペクト比を有する前記キャプチャされたメディアの前記表現が、前記第1のアスペクト比を有する前記キャプチャされたメディアの前記表現内に存在しない視覚コンテンツを含む、項目31に記載の方法。
[項目33]
前記1つ以上のカメラの前記視野の前記表現が、第1のズームレベルで表示され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記表現を表示することが、前記第1のズームレベルで表示される間に、前記表現の前記ズームレベルを変更する第1の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第1の要求を受信したことに応答して、
前記表現の前記ズームレベルを変更する前記要求が、前記表現の前記ズームレベルを上げる要求に対応するという判定に従って、前記1つ以上のカメラの第2の表現視野を前記第1のズームレベルよりも大きい第2のズームレベルで表示することと、
前記表現の前記ズームレベルを変更する前記要求が、前記表現の前記ズームレベルを下げる要求に対応するという判定に従って、前記1つ以上のカメラの第3の表現視野を前記第1のズームレベルよりも小さい第3のズームレベルで表示することと、
を含む、項目24から32のいずれか一項に記載の方法。
[項目34]
第4のズームレベルで表示される前記1つ以上のカメラの前記視野の前記表現を表示している間に、前記表現の前記ズームレベルを変更する第2の要求を受信することと、
前記表現の前記ズームレベルを変更する前記第2の要求を受信したことに応答して、
前記第4のズームレベルが、前記第2のズームレベルであるという判定に従って、前記第3のズームレベルで前記1つ以上のカメラの前記視野の第4の表現を表示することと、
前記第4のズームレベルが、前記第3のズームレベルであるという判定に従って、前記第1のズームレベルで前記1つ以上のカメラの前記視野の第5の表現を表示することと、
前記第4のズームレベルが、前記第1のズームレベルであるという判定に従って、前記第2のズームレベルで前記1つ以上のカメラの前記視野の第6の表現を表示することと、
を更に含む、項目33に記載の方法。
[項目35]
前記カメラユーザインタフェースを表示することが、キャプチャ設定の状態のグラフィカルインジケーションを含むアフォーダンスを表示することを含み、
前記第2のタイプの前記ジェスチャが、前記インジケーションの選択に対応する、項目24から34のいずれか一項に記載の方法。
[項目36]
前記第1の場所で前記複数のカメラ設定アフォーダンスを表示することが、
前記第2のタイプの前記ジェスチャが検出された間に、メディアを第1のカメラモードでキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することと、
前記第2のタイプの前記ジェスチャが検出された間に、メディアを第1のカメラモードとは異なる第2のカメラモードでキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1の場所で前記第1の複数のカメラ設定とは異なる第2の第1のカメラ設定アフォーダンスを表示することと、
を含む、項目24から35のいずれか一項に記載の方法。
[項目37]
前記第1の1組のカメラ設定アフォーダンスが第1のカメラ設定アフォーダンスを含み、前記第2の1組のカメラ設定アフォーダンスが前記第1のカメラ設定アフォーダンスを含む、項目36に記載の方法。
[項目38]
第1のカメラモードが静止写真キャプチャモードであり、前記第1の1組のカメラ設定アフォーダンスが、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
ライブ設定に対応する視覚インジケーションを含むアフォーダンスと、
アスペクト比設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、からなる群から選択される1つ以上のアフォーダンスを含む、
項目36又は37に記載の方法。
[項目39]
第1のカメラモードがポートレートモードであり、前記第1の1組のカメラ設定アフォーダンスが、
深度コントロール設定に対応する視覚インジケーションを含むアフォーダンスと、
フラッシュ設定に対応する視覚インジケーションを含むアフォーダンスと、
タイマー設定に対応する視覚インジケーションを含むアフォーダンスと、
フィルタ設定に対応する視覚インジケーションを含むアフォーダンスと、
照明設定に対応する視覚インジケーションを含むアフォーダンスと、からなる群から選択される1つ以上のアフォーダンスを含む、
項目36又は37に記載の方法。
[項目40]
前記ジェスチャが前記第1のタイプのものであり、前記第1のジェスチャを検出することが、前記第1のジェスチャの第1の部分及び前記第1のジェスチャの第2の部分を検出することを含み、前記方法が、更に、
前記第1のジェスチャの前記第1の部分を検出したことに応答して、前記表示デバイスを介して、前記1つ以上のカメラの前記視野の前記表現の少なくとも一部分を取り囲む1つ以上の別個の境界部要素を含む境界部を表示することと、
前記第1のジェスチャの前記第2の部分を検出したことに応答して、前記境界部の少なくとも一部分が前記ディスプレイから平行移動され、表示が停止されるまで、前記境界部を第1の方向に前記表示デバイスのディスプレイを横切って平行移動させることと、を含む、
項目24に記載の方法。
[項目41]
前記第1のジェスチャの前記第2の部分を検出することが、前記第1の方向に動く第2の接触を検出することを含む、項目40に記載の方法。
[項目42]
前記第2の接触が、前記1つ以上のカメラの前記視野の前記表現上で検出され、
前記境界部を平行移動させる速度が、前記第1の方向への第2の接触の移動速度に比例する、
項目41に記載の方法。
[項目43]
前記境界部を平行移動させることが、前記境界部によって囲まれた前記1つ以上のカメラの前記視野の前記表現の前記少なくとも一部分の視覚外観を変更することを含む、項目41に記載の方法。
[項目44]
第3のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、メディアをキャプチャする第2の要求を検出することと、
前記要求を受信したことに応答して、前記第3のカメラモードに対応する設定及び前記複数のカメラ設定アフォーダンスのアフォーダンスに対応する少なくとも1つの設定に基づいて、前記1つ以上のカメラを使用してメディアをキャプチャすることと、
を更に含む、項目24から43のいずれか一項に記載の方法。
[項目45]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目24から44のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目46]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目24から44のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目47]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目24から44のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目48]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目49]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出することと、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正することであって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示することと、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止することと、前記第1の場所で複数のカメラ設定アフォーダンスを表示することと、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正することと、
の命令を含む、電子デバイス。
[項目50]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェース上で第1のジェスチャを検出する手段と、
前記第1のジェスチャを検出したことに応答して、前記カメラコントロール領域の外観を修正する手段であって、
前記ジェスチャが、第1のタイプのジェスチャであるという判定に従って、前記第1の場所で1つ以上の追加のカメラモードアフォーダンスを表示する手段と、
前記ジェスチャが、前記第1のタイプとは異なる第2のタイプのジェスチャであるという判定に従って、前記複数のカメラモードアフォーダンスの表示を停止する手段と、前記第1の場所で複数のカメラ設定アフォーダンスを表示する手段と、を含み、前記カメラ設定アフォーダンスが、現在選択されているカメラモードの画像キャプチャを調整する設定である、前記カメラコントロール領域の外観を修正する手段と、
を備える、電子デバイス。
[項目51]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
を含む、方法。
[項目52]
前記視覚コンテンツの前記第1の表現を表示している間に、前記視覚コンテンツの前記表現を修正する要求に対応する1組の1つ以上の入力を検出することと、
前記1組の1つ以上の入力を検出したことに応答して、前記視覚コンテンツの第2の表現を表示することと、を含み、前記視覚コンテンツの前記第2の表現が、前記1つ以上のカメラの前記視野の前記第1の部分の少なくとも一部分からの視覚コンテンツと、前記視覚コンテンツの前記第1の表現に含まれなかった前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも一部分に基づく視覚コンテンツと、
を更に含む、項目51に記載の方法。
[項目53]
前記視覚コンテンツの前記第1の表現が、第1の視覚的視点からの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の視覚的視点とは異なる第2の視覚的視点からの表現である、
項目52に記載の方法。
[項目54]
前記視覚コンテンツの前記第1の表現が、第1の向きでの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1の向きとは異なる第2の向きでの表現である、
項目52に記載の方法。
[項目55]
前記第1の表現が第1のズームレベルで表示され、前記方法が、更に、
前記視覚コンテンツの前記第1の表現が、第1のズームレベルでの表現であり、
前記視覚コンテンツの前記第2の表現が、前記視覚コンテンツの前記第1の表現に含まれなかった、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの前記少なくとも一部分に基づいて生成された、前記第1のズームレベルとは異なる第2のズームレベルの表現である、項目52に記載の方法。
[項目56]
前記視覚コンテンツの前記第1の表現が、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第2の部分を使用して、デジタル画像安定化動作に少なくとも部分的に基づいて生成される、項目51から55のいずれか一項に記載の方法。
[項目57]
前記メディアアイテムをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第2の部分からの前記視覚コンテンツの少なくとも第3の部分を使用して、オブジェクト追跡動作を行うこと、
を更に含む、項目51から56のいずれか一項に記載の方法。
[項目58]
前記メディアアイテムを表示する前記要求が、前記メディアアイテムを表示する第1の要求であり、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の前記表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示した後に、前記メディアアイテムを表示する第2の要求を受信することと、
前記メディアアイテムを表示する前記第2の要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現及び前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの前記表現を表示することと、を含む、項目51から57のいずれか一項に記載の方法。
[項目59]
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされているという判定に従って、前記表示デバイスを介して、第2のカメラユーザインタフェースを表示することであって、前記第2のカメラユーザインタフェースが、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現を含むことなく、前記1つ以上のカメラの前記視野の前記第1の部分の前記表現を含む、第2のカメラユーザインタフェースを表示すること、
を更に含む、項目51から58のいずれか一項に記載の方法。
[項目60]
前記方法が、
以前にキャプチャされたメディアアイテムを表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムを表示する前記要求を受信したことに応答して、
前記それぞれの基準が満たされなかったときに前記以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示することと、
前記それぞれの基準が満たされたときに前記以前にキャプチャされたメディアアイテムがキャプチャされたという判定に従って、追加のコンテンツのインジケーションを表示するのをやめることと、
を更に含む、項目59に記載の方法。
[項目61]
前記それぞれの基準が、4000水平ピクセル以上の解像度でメディアアイテムをキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目59又は60に記載の方法。
[項目62]
前記それぞれの基準が、所定のズームレベルにてポートレートモードで動作するように前記電子デバイスが構成されていると満たされる基準を含む、項目59から61のいずれか一項に記載の方法。
[項目63]
前記それぞれの基準が、前記1つ以上のカメラのうちの少なくとも1つのカメラが所定の期間にわたって焦点を維持できないと満たされる基準を含む、項目59から62のいずれか一項に記載の方法。
[項目64]
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記入力が、前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する第1の入力であり、
前記方法が、更に、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する第2の入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする前記要求に対応する前記第2の入力を検出したことに応答して、
追加のコンテンツ設定に基づいて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されているという判定に従って、
前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの前記第1の表現をキャプチャすることと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることと、
前記追加のコンテンツ設定に基づいて、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツをキャプチャするように前記電子デバイスが構成されていないという判定に従って、
前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも前記一部分の前記表現をキャプチャすることなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現をキャプチャすることと、
を含む、項目51から63のいずれか一項に記載の方法。
[項目65]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目51から64のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目66]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目51から64のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目67]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目51から64のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目68]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目69]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
ユーザカメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出することと、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャすることと、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信することと、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示することと、
の命令を含む、電子デバイス。
[項目70]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
ユーザカメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、及びそれぞれの基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の部分と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースが表示されている間に、前記1つ以上のカメラでメディアをキャプチャする要求に対応する入力を検出する手段と、
前記1つ以上のカメラでメディアをキャプチャする要求に対応する前記入力を検出したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分に対応する視覚コンテンツと、前記1つ以上のカメラの前記視野の前記第2の部分に対応する視覚コンテンツと、を含むメディアアイテムを、前記1つ以上のカメラでキャプチャする手段と、
前記メディアアイテムをキャプチャした後に、前記メディアアイテムを表示する要求を受信する手段と、
前記メディアアイテムを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第2の部分に対応する前記視覚コンテンツの少なくとも一部分の表現を表示することなく、前記1つ以上のカメラの前記視野の前記第1の部分に対応する前記視覚コンテンツの第1の表現を表示する手段と、
を備える、電子デバイス。
[項目71]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、
を含む、方法。
[項目72]
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止することが、
前記キャプチャされたメディアの前記表現の少なくとも第2の部分の表示を維持することを含む、項目71に記載の方法。
[項目73]
前記表現の前記第1の部分の表示を停止する前に、前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第1の場所に表示され、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止することが、
前記表示デバイス上の前記第1の場所から前記表示デバイスの縁部に対応する前記表示デバイス上の第2の場所に向かって、前記キャプチャされたメディアの前記表現を動かすアニメーションを表示することを含む、項目71又は72に記載の方法。
[項目74]
前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第3の場所に表示され、前記方法が、
前記キャプチャされたメディアの第2の表現が表示されている間に、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止する要求に対応するユーザ入力を検出することと、
前記第2の表現の少なくとも一部分の表示を停止する前記要求を検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記第2の表現の少なくとも一部分の表示を停止することと、を含む、項目71から73のいずれか一項に記載の方法。
[項目75]
前記表現の前記第1の部分の表示を停止した後に、前記表示デバイスの縁部に対応する前記表示デバイス上の第4の場所から、前記表示デバイス上の前記第4の場所とは異なる第5の場所への第2の接触の移動に対応するユーザ入力を受信することと、
前記表示デバイスの前記縁部に対応する前記表示デバイス上の前記第4の場所から、前記表示デバイス上の前記第5の場所への前記接触の移動に対応するユーザ入力を受信したことに応答して、前記表現の前記第1の部分を再表示することと、
を更に含む、項目71から74のいずれか一項に記載の方法。
[項目76]
前記キャプチャされたメディアの前記表現が表示されている間に、前記キャプチャされたメディアの拡大表現を表示する要求に対応するユーザ入力を検出することと、
前記キャプチャされたメディアの前記表現の前記選択に対応するユーザ入力を検出したことに応答して、前記表示デバイスを介して、前記キャプチャされたメディアの拡大表現を表示することと、
を更に含む、項目71から75のいずれか一項に記載の方法。
[項目77]
前記カメラユーザインタフェースが表示されていない間に、前記カメラユーザインタフェースを再表示する要求を受信することと、
前記カメラユーザインタフェースを再表示する前記要求を受信したことに応答して、キャプチャされたメディアの第2の表現を含む、前記カメラユーザインタフェースの第2のインスタンスを表示することと、
を更に含む、項目71から76のいずれか一項に記載の方法。
[項目78]
前記キャプチャされたメディアの前記表現が、前記表示デバイス上の第5の場所に表示され、前記方法が、更に、
前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも前記第1の部分の表示を停止した後に、前記第5の場所にて複数のカメラ設定を制御するアフォーダンスを表示することと、を含む、項目71から77のいずれか一項に記載の方法。
[項目79]
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることが、画像のシーケンスをキャプチャすることを含み、
前記キャプチャされたメディアの前記表現を表示することが、少なくとも2つの画像を含む画像の前記キャプチャされたシーケンスの少なくとも一部分を再生することを含む、
項目71から78のいずれか一項に記載の方法。
[項目80]
前記所定の時間が、前記キャプチャされたビデオシーケンスの前記持続時間に基づく、項目79に記載の方法。
[項目81]
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアを共有するオプションを表示する要求に対応するユーザ入力を受信することと、
前記キャプチャメディアを共有するオプションを表示する前記要求に対応する前記ユーザ入力を受信したことに応答して、前記キャプチャされたメディアを共有するユーザインタフェースを表示することと、
を更に含む、項目71から80のいずれか一項に記載の方法。
[項目82]
前記要求されたメディアを共有する前記ユーザインタフェースが、前記キャプチャされたメディアを共有する複数のオプションを含む、項目71から81いずれか一項に記載の方法。
[項目83]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目71から82のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目84]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目71から82のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目85]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目71から82のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目86]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目87]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出することと、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることと、前記キャプチャされたメディアの表現を表示することと、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出することと、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止することと、
の命令を含む、電子デバイス。
[項目88]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする要求を検出する手段と、
前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする前記要求を検出したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャする手段と、前記キャプチャされたメディアの表現を表示する手段と、
前記キャプチャされたメディアの前記表現を表示している間に、前記キャプチャされたメディアの前記表現が所定の期間にわたって表示されたことを検出する手段と、
前記キャプチャされたメディアの前記表現が前記所定の期間にわたって表示されたことを検出したことに応答して、前記カメラユーザインタフェースの表示を維持している間に、前記キャプチャされたメディアの前記表現の少なくとも第1の部分の表示を停止する手段と、
を備える、電子デバイス。
[項目89]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、
を含む、方法。
[項目90]
前記第1の入力の少なくとも第1の部分を検出したことに応答して、
前記第1の入力の前記第1の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、第1の触知出力を提供すること、
を更に含む、項目89に記載の方法。
[項目91]
前記第1の入力の少なくとも第2の部分を検出したことに応答して、
前記第1の入力の第2の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、メディアをキャプチャする要求に応答してキャプチャされる、前記メディアの前記境界部の視覚インジケーションを表示すること、
を更に含む、項目89又は90に記載の方法。
[項目92]
前記視覚インジケーションが表示されている間に、及び前記第1の入力の少なくとも第3の部分を検出したことに応答して、
前記第1の入力の前記第3の部分が前記第1の接触の移動を含むという判定に従って、
前記第1の接触が前記閾値時間量にわたって前記第1の場所で維持された後に、前記第1の接触の前記移動は第1の大きさ及び第1の方向を有し、前記第1の大きさ及び前記第1の方向に基づいて前記視覚インジケーションの前記外観を修正すること、
を更に含む、項目91に記載の方法。
[項目93]
前記第1の入力の少なくとも第1の部分を検出したことに応答して、
前記第1の入力の前記第1の部分が、少なくとも前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含むという判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを縮小することを含むアニメーションを表示すること、
を更に含む、項目91又は92に記載の方法。
[項目94]
前記視覚インジケーションが表示されている間に、及び前記第1の入力の少なくとも第4の部分を検出したことに応答して、
前記第1の入力の前記第4の部分が、前記第1の接触のリフトオフを含むという判定に従って、前記視覚インジケーションによって示される前記1つ以上のカメラの前記視野の前記表現の一部分のサイズを増大することを含むアニメーションを表示すること、
を更に含む、項目91から93のいずれか一項に記載の方法。
[項目95]
前記1つ以上のカメラの前記視野の前記表現の第1の部分が、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示され、前記1つ以上のカメラの前記視野の前記表現の第2の部分が、前記メディアの前記境界部の前記視覚インジケーションによって選択されたものとして示されておらず、
前記第2の部分が、前記第1の部分と視覚的に区別される、
項目91から94のいずれか一項に記載の方法。
[項目96]
第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することが、
第1の移動範囲内にある移動の第1の大きさ及び/又は方向を有する前記第2の場所への前記第1の接触の前記移動に従って、所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の移動範囲にない移動の第2の大きさ及び/又は方向を有する前記第2の場所への前記第1の接触の前記移動に従って、所定でなく、かつ移動の前記大きさ及び/又は方向に基づくアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することと、
を含む、項目90から95のいずれか一項に記載の方法。
[項目97]
前記所定のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することが、1つ以上の触知出力デバイスを介して、第2の触知出力を生成することを含む、項目96に記載の方法。
[項目98]
前記第1の入力を検出する前に、第1のカメラモードを使用してメディアをキャプチャするように前記電子デバイスが構成され、前記方法が、更に、
前記第1の入力を検出したことに応答して、
前記第1の入力が前記閾値時間量にわたって前記第1の場所で前記第1の接触を維持することを含まないという判定、及び前記第1の入力が第1の移動閾値を超える前記第1の接触の移動を含むという判定に従って、前記第1のカメラモードとは異なる第2のカメラモードを使用してメディアをキャプチャするように前記電子デバイスを構成することを含む、
項目89から97のいずれか一項に記載の方法。
[項目99]
前記カメラユーザインタフェースが、第1のメディアキャプチャモードで動作するように前記電子デバイスが構成されているというインジケーションを更に含み、前記方法が、更に、
前記カメラディスプレイ領域上の第2の方向への第4の接触の連続的な移動を検出することを含む、第4の入力の検出に従い、
メディアキャプチャ動作に関連付けられた特性を調整するコントロールを表示することを含む、
項目89から98のいずれか一項に記載の方法。
[項目100]
前記第1の入力を検出したことに応答して、
前記第1の入力が前記閾値時間量未満にわたって前記第1の場所で前記第1の接触を検出することを含むという判定に従って、前記第1の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく焦点設定でメディアをキャプチャするように前記電子デバイスを構成することを含む、焦点設定を調整すること、
を更に含む、項目89から99のいずれか一項に記載の方法。
[項目101]
前記第1の入力を検出したことに応答して、
前記第1の入力が、メディアをキャプチャする前記要求に応答してキャプチャされる、前記メディアの前記境界部の少なくとも前記一部分を示す、前記カメラディスプレイ領域の既定の部分に対応しない第3の場所で第2の閾値時間量にわたって前記第1の接触を維持することを含むという判定に従って、前記第3の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成すること、
を更に含む、項目89から100のいずれか一項に記載の方法。
[項目102]
前記第3の場所に対応する前記カメラの前記視野内の前記場所でのコンテンツに基づく前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを前記構成することを構成した後に、前記第3の場所に対応する前記カメラの視野内の前記場所での前記コンテンツを、前記1つ以上のカメラの前記視野内にもはや存在させないという、前記1つ以上のカメラの前記視野の前記表現の変化を検出することと、
前記変化を検出したことに応答して、前記第1の露出設定でメディアをキャプチャするように前記電子デバイスを構成し続けることと、
を更に含む、項目101に記載の方法。
[項目103]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目89から102のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目104]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目89から102のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目105]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目89から102のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目106]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、の命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目107]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示することと、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成することであって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成することと、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出することと、の命令と、
を含む、電子デバイス。
[項目108]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、前記1つ以上のカメラの視野の表現を含むカメラディスプレイ領域を含む、カメラユーザインタフェースを表示する手段と、
メディアをキャプチャする要求を受信したことに応答して、第1のアスペクト比でメディアをキャプチャするように前記電子デバイスが構成されている間に、前記1つ以上のカメラの前記視野の前記表現上のそれぞれの場所に第1の接触を含む第1の入力を検出する手段と、
前記第1の入力を検出したことに応答して、
1組のアスペクト比変化基準が満たされているという判定に従って、メディアをキャプチャする要求に応答して、前記第1のアスペクト比とは異なる第2のアスペクト比でメディアをキャプチャするように前記電子デバイスを構成する手段であって、
前記1組のアスペクト比変化基準が、少なくとも閾値時間量にわたってメディアをキャプチャする要求に応答してキャプチャされる、前記メディアの境界部の少なくとも一部分を示す前記カメラディスプレイ領域の既定の部分に対応する第1の場所で前記第1の接触を維持することを前記第1の入力が含むと満たされる基準を含む、構成する手段と、続いて、前記第1の場所とは異なる第2の場所への前記第1の接触の移動を検出する手段と、
を備える、電子デバイス。
[項目109]
方法であって、
表示デバイス及びカメラを有する電子デバイスで、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、
を含む、方法。
[項目110]
メディアキャプチャアフォーダンスを表示することと、
前記メディアキャプチャアフォーダンスに対応する第1の入力を検出することと、
前記第1の入力を検出したことに応答して、
前記第1のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたという判定に従って、前記第1のズームレベルでメディアをキャプチャすることと、
前記第2のカメラユーザインタフェースが表示されている間に前記第1の入力が検出されたという判定に従って、前記第2のズームレベルでメディアをキャプチャすることと、
を更に含む、項目109に記載の方法。
[項目111]
前記第1のカメラユーザインタフェースを表示することが、前記カメラの視野の第1の表現を表示することを含み、
前記第1の表現が前記第1のズームレベルで前記第1のカメラの向きで表示され、
前記第2のカメラユーザインタフェースを表示することが、前記カメラの前記視野の第2の表現を表示することを含み、
前記第2の表現が前記第2のズームレベルで前記第2のカメラの向きで表示されている、項目109又は110に記載の方法。
[項目112]
前記第1の向きが縦向きであり、前記第1の表現が前記カメラの前記視野の一部分であり、前記第2の向きが横向きであり、前記第2の表現が前記カメラの視野全体である、項目111に記載の方法。
[項目113]
前記カメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応答して、前記第1の表現の表示を前記カメラの前記視野の第3の表現に置き換えることであって、前記第3の表現が前記第1のカメラの向きで、かつ前記第3のズームレベルである、置き換えることと、
を更に含む、項目111又は112に記載の方法。
[項目114]
前記カメラの前記視野の前記第1の表現を表示している間に、ズームトグルアフォーダンスを表示することと、
前記ズームトグルアフォーダンスの選択に対応する第2の入力を検出することであって、前記ズームトグルアフォーダンスの選択が、前記第1のズームレベルを第4のズームレベルに変更する要求に対応する、検出することと、
前記第2の入力を検出したことに応答して、前記第1の表現の表示を前記カメラの前記視野の第4の表現に置き換えることであって、前記第4の表現が前記第1のカメラの向きで、かつ前記第4のズームレベルである、置き換えることと、
を更に含む、項目111から113のいずれか一項に記載の方法。
[項目115]
前記ズームトグルアフォーダンスが、前記第1のカメラユーザインタフェース及び前記第2のカメラインタフェース内に表示される、項目114に記載の方法。
[項目116]
前記カメラの前記視野の前記第1の表現を表示している間に、前記第1のズームレベルを第3のズームレベルに変更する要求を受信することと、
前記第1のズームレベルを前記第3のズームレベルに変更する前記要求を受信したことに応答して、
前記第1の表現の表示を前記カメラの前記視野の第5の表現に置き換えることであって、前記第5の表現が前記第1のカメラの向きで、かつ前記第5のズームレベルである、置き換えることと、
を更に含む、項目111から115のいずれか一項に記載の方法。
[項目117]
前記カメラが、第1のカメラと、前記第1のカメラとは異なる第2のカメラと、を含み、
前記自動ズーム基準が、前記電子デバイスが前記第1のカメラユーザインタフェース内に、前記第1のカメラの前記視野の表現を表示しており、かつ前記第2のカメラの前記視野の表現を表示していないと満たされる基準を含む、項目109から116のいずれか一項に記載の方法。
[項目118]
前記自動ズーム基準が、前記電子デバイスがビデオキャプチャ動作モードになっていないと満たされる基準を含む、項目109から117のいずれか一項に記載の方法。
[項目119]
前記自動ズーム基準が、ライブ通信セッションのビデオをキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目109から118のいずれか一項に記載の方法。
[項目120]
前記第1のズームレベルが前記第2のズームレベルより大きく、前記方法が、更に、
前記第2のカメラユーザインタフェースを表示している間に、前記第2の向きから前記第1の向きへの前記電子デバイスの向きの変化を検出することと、
前記第2の向きから前記第1の向きへの前記電子デバイスの向きの前記変化を検出したことに応答して、前記表示デバイス上に、前記第1のカメラユーザインタフェースを表示することと、を含む、項目109から119のいずれか一項に記載の方法。
[項目121]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目109から120のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目122]
電子デバイスであって、
表示デバイスと、
カメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目109から120のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目123]
電子デバイスであって、
表示デバイスと、
カメラと、
項目109から120のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目124]
表示デバイス及びカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、の命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目125]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出することと、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示することと、
の命令を含む、電子デバイス。
[項目126]
電子デバイスであって、
表示デバイスと、
カメラと、
前記電子デバイスが第1の向きにある間に、前記表示デバイスを介して、第1のズームレベルで第1のカメラの向きでメディアをキャプチャする第1のカメラユーザインタフェースを表示する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの変化を検出する手段と、
前記第1の向きから第2の向きへの、前記電子デバイスの向きの前記変化を検出したことに応答して、
ユーザ入力を介在することなく自動的に、1組の自動ズーム基準が満たされているという判定に従って、前記第1のズームレベルとは異なる第2のズームレベルで、第2のカメラの向きでメディアをキャプチャする第2のカメラユーザインタフェースを表示する手段と、
を含む、電子デバイス。
[項目127]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
を含む、方法。
[項目128]
前記可変フレームレート基準が、前記1つ以上のカメラの前記視野内の周辺光が閾値を下回ると満たされる基準を含み、前記1つ以上のカメラの前記視野内の前記変化を検出する前に、前記1つ以上のカメラの前記視野の前記表現が、第3のフレームレートで更新され、前記方法が、更に、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び前記可変フレームレート基準が満たされていないという判定に従って、前記第3のフレームレートで前記1つ以上のカメラの前記視野の前記表現の前記更新を維持することを含む、項目127に記載の方法。
[項目129]
前記低光可変フレームレート基準が、フラッシュモードが非アクティブであることを満たす基準を含む、項目128に記載の方法。
[項目130]
前記メディアキャプチャユーザインタフェースを表示することが、
前記可変フレームレート基準が満たされているという判定に従って、可変フレームレートモードがアクティブであるというインジケーションを表示することと、
前記可変フレームレート基準が満たされていないという判定に従って、前記可変フレームレートモードがアクティブであるという前記インジケーションなしで、前記メディアキャプチャユーザインタフェースを表示することと、
を含む、項目127から129のいずれか一項に記載の方法。
[項目131]
前記第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて更新された前記1つ以上のカメラの前記視野の前記表現が、第1の輝度で前記表示デバイス上に表示され、
前記第1のフレームレートより低い前記第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて更新された前記1つ以上のカメラの前記視野の前記表現が、前記第1の輝度よりも視覚的に明るい第2の輝度で前記表示デバイス上に表示される、項目127から130のいずれか一項に記載の方法。
[項目132]
前記第2のフレームレートが、前記1つ以上のカメラの前記視野内の周辺光の量がそれぞれの閾値を下回ることに基づく、項目127から131のいずれか一項に記載の方法。
[項目133]
前記検出された変化が検出された移動を含み、前記第2のフレームレートが前記検出された移動の量に基づく、項目127から132のいずれか一項に記載の方法。
[項目134]
前記移動基準が、前記1つ以上のカメラの前記フィールドオブフィールド(field-of-field)内の前記検出された変化が、移動閾値よりも大きい前記電子デバイスの移動に対応すると満たされる基準を含む、項目127から133のいずれか一項に記載の方法。
[項目135]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目127から134のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目136]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目127から134のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目137]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目127から134のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目138]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目139]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新することと、
の命令を含む、電子デバイス。
[項目140]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示する手段と、
前記メディアキャプチャユーザインタフェースを表示している間に、前記カメラを介して、前記1つ以上のカメラの前記視野内の変化を検出する手段と、
前記1つ以上のカメラの前記視野内の前記変化を検出したことに応答して、及び可変フレームレート基準が満たされているという判定に従って、
前記1つ以上のカメラの前記視野内の前記検出された変化が移動基準を満たすという判定に従って、第1のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する手段と、
前記1つ以上のカメラの前記視野内の前記検出された変化が前記移動基準を満たさないという判定に従って、前記第1のフレームレートより低い第2のフレームレートで前記1つ以上のカメラの前記視野内で前記検出された変化に基づいて、前記1つ以上のカメラの前記視野の前記表現を更新する手段と、
を含む、電子デバイス。
[項目141]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、
を含む、方法。
[項目142]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、低光条件がもはや満たされていないというインジケーションを取得することと、
前記インジケーションを取得したことに応答して、前記表示デバイスを介して、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
を更に含む、項目141に記載の方法。
[項目143]
前記キャプチャ持続時間を調整する前記コントロールを同時に表示することなく、前記1つ以上のカメラの前記視野の前記表現を表示している間に、低光条件が満たされたというインジケーションを取得することと、
前記インジケーションを取得したことに応答して、前記1つ以上のカメラの前記視野の前記表現と同時に、前記キャプチャ持続時間を調整する前記コントロールを表示することと、
を更に含む、項目141又は142に記載の方法。
[項目144]
前記低光条件が、フラッシュモードが非アクティブであると満たされる条件を含む、項目141から143のいずれか一項に記載の方法。
[項目145]
前記キャプチャ持続時間を調整する前記コントロールがスライダである、項目141から144のいずれか一項に記載の方法。
[項目146]
前記カメラユーザインタフェースを表示することが、
前記1つ以上のカメラの前記視野の前記表現と同時に、選択されると、前記1つ以上のカメラを使用して前記メディアのキャプチャを開始するメディアキャプチャアフォーダンスを表示することを含む、項目141から145のいずれか一項に記載の方法。
[項目147]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間の第1のインジケーションを表示することと、
前記第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記キャプチャ持続時間を調整する前記コントロールを調整する要求を受信したことに応答して、前記第1のキャプチャ持続時間の前記第1のインジケーションの表示を、前記第2のキャプチャ持続時間の第2のインジケーションの表示に置き換えることと、
を更に含む、項目146に記載の方法。
[項目148]
前記1つ以上のカメラの前記視野の前記表現が、第1の表現であり、前記方法が、更に、
前記第1のキャプチャ持続時間から前記キャプチャ持続時間を調整する前記コントロールを調整する前記要求を受信したことに応答して、
前記第1の表現の表示を前記1つ以上のカメラの前記視野の前記の(the of)第2の表現に置き換えることであって、前記第2の表現が、前記第2の持続時間に基づき、前記第1の表現と視覚的に区別される、置き換えることと、を含む、項目147に記載の方法。
[項目149]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、及び前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のものに対応するという判定に従って、前記第2のキャプチャ持続時間とは異なる持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目150]
前記第2のキャプチャ持続時間の前記第2のインジケーションを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
を更に含む、項目147又は148に記載の方法。
[項目151]
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記表現の表示を停止すること
を更に含む、項目150に記載の方法。
[項目152]
前記キャプチャ持続時間を調整する前記コントロールが、第1の色で表示され、前記方法が、更に、
メディアをキャプチャする前記要求を受信したことに応答して、前記第1の色とは異なる第2の色で前記キャプチャ持続時間を調整する前記コントロールを表示することを含む、項目150又は151に記載の方法。
[項目153]
メディアをキャプチャする前記要求を受信したことに応答して、第3のキャプチャ値の第3のインジケーションを前記第2のキャプチャ持続時間の前記第2のインジケーションに動かす第1のアニメーションを表示することと、
前記第1のアニメーションを表示した後に、前記第2のキャプチャ持続時間の前記第2のインジケーションを、前記第3のキャプチャ値の前記第3のインジケーションまで動かす、第2のアニメーションを表示することであって、前記第2のアニメーションの持続時間が、前記第2のキャプチャ持続時間の持続時間に対応し、前記第1のアニメーションの持続時間とは異なる、表示することと、
を更に含む、項目150から152のいずれか一項に記載の方法。
[項目154]
前記第1のアニメーションを表示している間に、第1の触知出力を提供することと、
前記第2のアニメーションを表示している間に、第2の触知出力を提供することと、
を更に含む、項目153に記載の方法。
[項目155]
前記メディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間に基づいて前記メディアをキャプチャすること、
を更に含む、項目150から154のいずれか一項に記載の方法。
[項目156]
前記メディアが、前記第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアであり、前記方法が、更に、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第2のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアのキャプチャを開始した後に、前記第2のキャプチャ持続時間が経過する前に、前記第2のメディアのキャプチャを終了する要求を受信することと、
前記第2のメディアのキャプチャを終了する前記要求を受信したことに応答して、
前記第2のキャプチャ持続時間に基づいて前記第2のメディアの前記キャプチャを終了することと、
終了前にキャプチャされた前記第2のメディアの表現を表示することが、前記第2のメディアのキャプチャを終了する前記要求を受信する前に、前記1つ以上のカメラによってキャプチャされた視覚情報に基づくことと、
を含む、項目155に記載の方法。
[項目157]
前記メディアが、前記第2のキャプチャ持続時間に基づいてキャプチャされた第1のメディアであり、前記方法が、更に、
前記第1のメディアをキャプチャした後に、前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする要求を受信することと、
前記第2のキャプチャ持続時間に基づいて第3のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始することと、
前記第2のキャプチャ持続時間に基づいて前記第3のメディアのキャプチャを開始した後に、
前記1つ以上のカメラの前記視野内の検出された変化が移動基準を超えるという判定に従って、
前記第3のメディアの前記キャプチャを終了することと、
終了前にキャプチャされた前記第3のメディアの表現を表示することが、前記第2のメディアのキャプチャを終了する前記要求を受信する前に、前記1つ以上のカメラによってキャプチャされた視覚情報に基づくことと、
を含む、項目155又は156に記載の方法。
[項目158]
メディアをキャプチャする前記要求を受信したことに応答して、メディアをキャプチャするように要求する前記アフォーダンスの表示を、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目155から167のいずれか一項に記載の方法。
[項目159]
前記メディアのキャプチャを開始した後に、第1のキャプチャ時間でキャプチャされた前記第1のメディアの第1の表現を表示することと、
前記第1のメディアの前記第1の表現を表示した後に、前記第1のメディアの前記第1の表現の表示を、前記第1のキャプチャ時間の後の第2のキャプチャ時間でキャプチャされた前記第1のメディアの第2の表現の表示に置き換えることであって、前記第2の表現が、前記第1の表現と視覚的に区別される、置き換えることと、
を更に含む、項目155から158のいずれか一項に記載の方法。
[項目160]
前記第1の表現の表示を前記第2の表現の表示に前記置き換えることが、所定の期間後に行われる、項目159に記載の方法。
[項目161]
前記カメラユーザインタフェースを表示することが、低光条件が満たされたという判定に従って、キャプチャ持続時間を調整する前記コントロールと同時に、低光キャプチャモードの状態がアクティブであることを示す低光キャプチャ状態インジケータを表示することを含み、
前記方法が、
前記低光キャプチャ状態インジケータを表示している間に、前記低光状態インジケータの第1の選択を受信することと、
前記低光状態インジケータの第1の選択を受信したことに応答して、
前記低光キャプチャ状態インジケータの表示を維持している間に、前記キャプチャ持続時間を調整する前記コントロールの表示を停止することと、
前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータの外観を更新することと、を含む、
項目141から160のいずれか一項に記載の方法。
[項目162]
前記カメラユーザインタフェースを表示することが、低光条件が満たされたという判定に従って、前記低光キャプチャモードが非アクティブであることを示す前記低光キャプチャ状態を表示している間に、前記低光状態インジケータの第2の選択を受信することを含み、
前記方法が、
前記低光状態インジケータの前記第2の選択を受信したことに応答して、前記キャプチャ持続時間を調整する前記コントロールを再表示すること、を含む、
項目161に記載の方法。
[項目163]
前記低光キャプチャ状態インジケータの前記第1の選択を受信したことに応答して、フラッシュ動作を行わないように前記電子デバイスを構成することを含む、項目161に記載の方法。
[項目164]
前記低光条件が、前記低光状態インジケータが選択されたと満たされる条件を含む、項目161から163のいずれか一項に記載の方法。
[項目165]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目141から164のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目166]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目141から164のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目167]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目141から164のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目168]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目169]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
カメラユーザインタフェースを表示する要求を受信することと、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示することと、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめることと、を含む、カメラユーザインタフェースを表示することと、
の命令を含む、電子デバイス。
[項目170]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
カメラユーザインタフェースを表示する要求を受信する手段と、
前記カメラユーザインタフェースを表示する前記要求を受信したことに応答して、前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を表示する手段と、
前記1つ以上のカメラの前記視野内の周辺光がそれぞれの閾値を下回ると満たされる条件を含む低光条件が満たされたという判定に従って、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャする要求に応答してメディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、
前記低光条件が満たされていないという判定に従って、前記キャプチャ持続時間を調整する前記コントロールを表示するのをやめる手段と、を含む、カメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目171]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすという判定に従って、前記低光環境基準が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含み、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、
を含む、方法。
[項目172]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たし、かつ前記フラッシュ動作がアクティブ又は非アクティブに設定されているかどうかを自動的に判定するようにフラッシュ設定が設定されていると満たされる基準を含む、フラッシュ動作基準が満たされているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示す、
項目171に記載の方法。
[項目173]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が第1の所定の範囲内にあり、フラッシュ設定がアクティブに設定されているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲内にあり、フラッシュ設定がアクティブに設定されていないという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示す、
項目171又は172に記載の方法。
[項目174]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる第2の所定の範囲内にあり、フラッシュ設定が非アクティブに設定されているという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が非アクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示し、
前記1つ以上のカメラの前記視野内の前記光量が前記第1の所定の範囲とは異なる前記第2の所定の範囲内にあり、フラッシュ設定が非アクティブに設定されていないという判定に従って、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態がアクティブであることを示し、
前記低光キャプチャインジケータが、前記低光キャプチャモードの前記状態が非アクティブであることを示す、
項目173に記載の方法。
[項目175]
前記フラッシュインジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示す間に、前記フラッシュ状態インジケータの選択を受信することと、
前記フラッシュ状態インジケータの前記選択を受信したことに応答して、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャインジケータを更新することと、
を更に含む、項目171から174のいずれか一項に記載の方法。
[項目176]
前記フラッシュインジケータが表示されており、かつ前記フラッシュ動作の前記状態がアクティブであることを示し、前記低光キャプチャインジケータが表示されており、かつ前記低光キャプチャモードの前記状態が非アクティブであることを示す間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記低光キャプチャ状態インジケータの前記選択を受信したことに応答して、
前記フラッシュ動作の前記状態が非アクティブであることを示すように、前記フラッシュ状態インジケータを更新することと、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目171から175のいずれか一項に記載の方法。
[項目177]
低光キャプチャモードの前記状態がアクティブであるという判定に従って、キャプチャ持続時間を調整するコントロールを表示すること、
を更に含む、項目171から176のいずれか一項に記載の方法。
[項目178]
前記キャプチャ持続時間を調整する前記コントロールを表示している間に、第1のキャプチャ持続時間から第2のキャプチャ持続時間に前記コントロールを変更する要求を受信することと、
前記第1のキャプチャ持続時間から前記第2のキャプチャ持続時間に前記コントロールを変更する要求を受信したことに応答して、
前記第2のキャプチャ持続時間が低光キャプチャモードを非アクティブ化する所定のキャプチャ持続時間であるという判定に従って、前記低光キャプチャモードの前記状態が非アクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
を更に含む、項目177に記載の方法。
[項目179]
キャプチャ持続時間を調整する前記コントロールを表示している間に、低光キャプチャモードの状態の変化を検出することと、
前記低光キャプチャモードの状態の前記変化を検出したことに応答して、
低光キャプチャモードの前記状態が非アクティブであるという判定に従って、キャプチャ持続時間を調整する前記コントロールの表示を停止すること、
を更に含む、項目177に記載の方法。
[項目180]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第1の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第1のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第1のメディアをキャプチャする前記要求を受信したことに応答して、
前記第1のメディアのキャプチャを開始することと、
前記第1のメディアの前記キャプチャの前記持続時間にわたって、前記1つ以上のカメラの前記視野の前記第1の表現の前記表示を維持することと、
を更に含む、項目171から179のいずれか一項に記載の方法。
[項目181]
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第2のメディアをキャプチャする要求を受信することと、
低光キャプチャモードの前記状態がアクティブである間に、第2のメディアをキャプチャする前記要求を受信したことに応答して、前記第2のメディアのキャプチャを開始することと、
前記第2のメディアをキャプチャしている間に、前記カメラユーザインタフェース内に、前記第2のメディアの表現を同時に表示することと、
を更に含む、項目171から180のいずれか一項に記載の方法。
[項目182]
前記カメラユーザインタフェース内に、前記1つ以上のカメラの前記視野の第2の表現を表示することと、
低光キャプチャモードの前記状態がアクティブである間に、前記1つ以上のカメラの前記視野の第3のメディアをキャプチャする要求を受信することと、
前記低光キャプチャモードの前記状態がアクティブである間に、第3のメディアをキャプチャする要求を受信したことに応答して、前記第3のメディアのキャプチャを開始することと、
前記第3のメディアをキャプチャしている間に、前記カメラユーザインタフェース内の前記1つ以上のカメラの前記視野から導出された表現の表示を停止することと、
を更に含む、項目171から181のいずれか一項に記載の方法。
[項目183]
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内に、前記フラッシュ動作の前記状態を示す前記フラッシュ状態インジケータを表示すること、
を更に含む、項目171から182のいずれか一項に記載の方法。
[項目184]
前記フラッシュ動作の前記状態及び前記低光キャプチャモードの前記状態が、互いに排他的である、項目171から183のいずれか一項に記載の方法。
[項目185]
前記低光キャプチャモードの前記状態が、アクティブ状態、利用可能状態、及び非アクティブ状態からなる群から選択される、項目171から184のいずれか一項に記載の方法。
[項目186]
前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たす間に、
前記1つ以上のカメラの前記視野内の前記光量が第3の所定の範囲にあるという判定に従って、前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示す、
項目171又は172、及び174から185のいずれか一項に記載の方法。
[項目187]
キャプチャ持続時間を調整する前記コントロールが第1のコントロールであり、前記方法が、更に、
前記フラッシュ状態インジケータが、前記フラッシュ動作の前記状態が利用可能であることを示す間に、前記低光キャプチャ状態インジケータの選択を受信することと、
前記キャプチャ低光キャプチャ状態インジケータの選択を受信したことに応答して、
前記低光キャプチャモードの前記状態がアクティブであることを示すように、前記低光キャプチャ状態インジケータを更新することと、
キャプチャ持続時間を調整する第2のコントロールを表示することと、を含む、項目186に記載の方法。
[項目188]
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記第1の低光キャプチャ状態インジケータが前記第1のキャプチャ持続時間の第1の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が前記第4の所定の範囲内にないという判定に従って、前記第1の低光キャプチャ状態インジケータが前記第1のキャプチャ持続時間の前記第1の視覚表現を含まない、
項目171から187のいずれか一項に記載の方法。
[項目189]
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、前記1つ以上のカメラの前記視野内の前記光量が低光環境基準を満たすという前記判定に従って、
前記1つ以上のカメラの前記視野内の周辺光が第3の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの状態がアクティブであることを示し、前記第1のキャプチャ持続時間の第2の視覚表現を含み、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まず、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定の範囲内にあるという判定に従って、前記低光キャプチャ状態インジケータが、前記低光キャプチャモードの状態が利用可能であることを示し、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含む前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの前記状態がアクティブであることを示し、前記第1のキャプチャ持続時間の前記第2の視覚表現を含まない前記低光キャプチャ状態インジケータと、前記低光キャプチャモードの状態が利用可能である前記低光キャプチャ状態インジケータとが、互いに視覚的に異なる、ことと、
を更に含む、項目171から188のいずれか一項に記載の方法。
[項目190]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目171から189のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目191]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目171から189のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目192]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目171から189のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目193]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目194]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することと、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出することと、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示することと、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめることと、の命令と、
を含む、電子デバイス。
[項目195]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段と、
前記カメラユーザインタフェースを表示している間に、前記電子デバイスの1つ以上のセンサを介して、前記1つ以上のカメラの視野内の光量を検出する手段と、
前記1つ以上のカメラの前記視野内の前記光量を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記光量が、前記1つ以上のカメラの前記視野内の前記光量が所定の閾値を下回ると満たされる基準を含む、低光環境基準を満たすという判定に従って、前記カメラユーザインタフェース内に、
フラッシュ動作の状態を示すフラッシュ状態インジケータと、
低光キャプチャモードの状態を示す低光キャプチャ状態インジケータと、を同時に表示する手段と、
前記1つ以上のカメラの前記視野内の前記光量が前記低光環境基準を満たしていないという判定に従って、前記カメラユーザインタフェース内の前記低光キャプチャ状態インジケータを表示するのをやめる手段と、
を含む、電子デバイス。
[項目196]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、
を含む、方法。
[項目197]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールが、第1の静的部分及び第1の可変部分を含み、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールが、前記第1の静的部分及び第2の可変部分を含み、
前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示することが、
前記表示デバイス上に、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第1の静的部分の表示を維持すること、
を含む、項目196に記載の方法。
[項目198]
前記第1の編集可能パラメータを調整する前記調整可能なコントロール及び前記第2の編集可能パラメータを調整する前記調整可能なコントロールが、同じ相対位置に調整されたときに1つ以上の視覚的特徴を共有する、項目196又は197に記載の方法。
[項目199]
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータの前記調整された現在値に基づいて調整される前記視覚メディアの調整された表現に置き換えることと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記視覚メディアの前記表現の表示を、前記第2の編集可能パラメータの前記調整された現在値に基づいて調整される前記視覚メディアの調整された表現に置き換えることと、
を更に含む、項目196から198のいずれか一項に記載の方法。
[項目200]
前記第1の編集可能パラメータが自動調整編集可能パラメータであり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、前記第2の編集可能パラメータを含む複数の編集可能パラメータの現在値を調整することを含む、項目196から199のいずれか一項に記載の方法。
[項目201]
前記メディア編集ユーザインタフェースが複数の編集可能パラメータ現在値インジケータを含み、前記複数の編集可能パラメータ現在値インジケータが、
前記視覚メディアの前記表現の前記第2の編集可能パラメータに対応する値インジケータと、
前記視覚メディアの前記表現の第3の編集可能パラメータに対応する値インジケータと、を含み、
前記複数の編集可能パラメータの現在値を調整することが、
第3の編集可能パラメータの現在値を調整することと、
前記第2の編集可能パラメータの前記調整された現在値に基づいて、前記第2の編集可能パラメータに対応する前記値インジケータを更新することと、
前記第3の編集可能パラメータの前記調整された現在値に基づいて、前記第3の編集可能パラメータに対応する前記値インジケータを更新することと、
を含む、項目200に記載の方法。
[項目202]
前記メディア編集ユーザインタフェースが前記視覚メディアの前記表現を編集する第4の編集可能パラメータに対応する第3のアフォーダンスを含まない間に、第3のユーザ入力を検出することと、
前記第3のユーザ入力を検出したことに応答して、前記第3のアフォーダンスを表示することと、
を更に含む、項目196から201のいずれか一項に記載の方法。
[項目203]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示しており、かつ前記第3の入力を検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調しないこと、
を更に含む、項目202に記載の方法。
[項目204]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールが表示されている間に、前記第3の入力が受信され、
前記第3のアフォーダンスを表示することが、
前記第4の編集可能パラメータが第1のタイプのパラメータであると満たされる基準を含む第1の1組の基準が満たされているという判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第4の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の1組の基準が満たされていないという判定に従って、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第4の編集可能パラメータを調整する前記調整可能なコントロールを表示するのをやめることと、
を含む、項目203に記載の方法。
[項目205]
前記第1のユーザ入力が前記第1のアフォーダンス上のタップ入力であり、前記第2のユーザ入力が前記第2のアフォーダンス上のタップ入力である、項目196から204のいずれか一項に記載の方法。
[項目206]
前記視覚メディア及び前記第1のアフォーダンスの前記表現を表示している間に、前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているかどうかの状態を示す第1の編集可能パラメータ状態インジケータを表示することと、
前記第1のアフォーダンスの選択に対応する第4のユーザ入力を検出することと、
前記第4のユーザ入力を検出したことに応じて、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されているという判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータ表示に基づいて現在調整されていないことを示すように、前記第1の編集可能パラメータ状態インジケータを更新することと、
前記視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整されなかった前記視覚メディアの表現に置き換えることと、
前記視覚メディアの前記表現が前記第1の編集可能パラメータに基づいて現在調整されていないという判定に従って、
前記視覚メディアの前記表現が前記第1の編集可能パラメータの前記現在値に基づいて現在調整されていることを示すように、前記状態インジケータを更新することと、
視覚メディアの前記表現の表示を、前記第1の編集可能パラメータに基づいて調整された前記視覚メディアの表現に置き換えることと、
を更に含む、項目196から205のいずれか一項に記載の方法。
[項目207]
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する所定のリセット値に対応するという判定に従って、触知出力を生成することと、
前記第1の編集可能パラメータの前記現在値が前記第1の編集可能パラメータに対する前記所定のリセット値に対応しないという判定に従って、触知出力を生成するのをやめることと、
を含む、項目196から206のいずれか一項に記載の方法。
[項目208]
前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出している間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを視覚的に強調すること、
を更に含む、項目196から207のいずれか一項に記載の方法。
[項目209]
第3の編集可能パラメータ現在値インジケータが前記第1のアフォーダンスの少なくとも一部分を視覚的に包囲し、第4の編集可能パラメータ現在値インジケータが前記第2のアフォーダンスを視覚的に包囲する、項目196から208のいずれか一項に記載の方法。
[項目210]
前記電子デバイスが1つ以上のカメラを含み、
前記視覚メディアの前記表現が前記1つ又はカメラの視野の表現であり、
照明効果及び深度効果の適用を可能にする第1のキャプチャモードで視覚メディアをキャプチャするように前記電子デバイスが構成されている間に、前記メディア編集ユーザインタフェースが表示され、
前記第1の編集可能パラメータが照明効果強度であり、
前記第2の編集可能パラメータが深度効果強度である、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目211]
前記第1の編集可能パラメータが照明効果パラメータに対応し、
前記メディア編集ユーザインタフェースが前記照明効果パラメータに対応する値インジケータを含み、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、前記第1の編集可能パラメータの前記調整された現在値に基づいて、光有効状態インジケータを調整することを含む、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目212]
前記第1の編集可能パラメータが視覚フィルタ効果強度であり、
前記第1のジェスチャに従って前記第1の編集可能パラメータの前記現在値を調整することが、
視覚メディアの前記表現の表示を、前記フィルタ効果強度の前記現在値に基づいて調整された前記視覚メディアの表現に置き換えることを含む、
項目196から199及び202から209のいずれか一項に記載の方法。
[項目213]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目196から212のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目214]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目196から212のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目215]
電子デバイスであって、
表示デバイスと、
項目196から212のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目216]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目217]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示することと、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出することと、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整することと、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出することと、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示することと、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出することと、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整することと、の命令と、
を含む、電子デバイス。
[項目218]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、
視覚メディアの表現と、
前記視覚メディアの前記表現を編集する第1の編集可能パラメータに対応する第1のアフォーダンスと、
前記視覚メディアの前記表現を編集する第2の編集可能パラメータに対応する第2のアフォーダンスと、を含む、メディア編集ユーザインタフェースを表示する手段と、
前記メディア編集ユーザインタフェースを表示している間に、前記第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、
前記第1のアフォーダンスの選択に対応する前記第1のユーザ入力を検出したことに応答して、前記表示デバイス上に、前記メディア編集ユーザインタフェース内のそれぞれの場所に、前記第1の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第1のジェスチャを検出する手段と、
前記第1の編集可能パラメータが選択されている間に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第1のジェスチャを検出したことに応答して、前記第1のジェスチャに従って前記第1の編集可能パラメータの現在値を調整する手段と、
前記表示デバイス上に、前記第1の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、前記第2のアフォーダンスの選択に対応する第2のユーザ入力を検出する手段と、
前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を検出したことに応答して、前記メディア編集ユーザインタフェース内の前記それぞれの場所に、前記第2の編集可能パラメータを調整する調整可能なコントロールを表示する手段と、
前記第2の編集可能パラメータを調整する前記調整可能なコントロールを表示している間に、及び前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた第2のジェスチャを検出する手段と、
前記第2の編集可能パラメータが選択されている間に、前記第2の編集可能パラメータを調整する前記調整可能なコントロールに向けられた前記第2のジェスチャを検出したことに応答して、前記第2のジェスチャに従って前記第2の編集可能パラメータの現在値を調整する手段と、
を備える、電子デバイス。
[項目219]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
を含む、方法。
[項目220]
前記第1のユーザインタフェースが、
選択されると、前記第1の視覚メディアの水平遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記水平遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第1のアフォーダンスと、
選択されると、前記第1の視覚メディアの垂直遠近歪に対する現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新し、かつユーザ入力に基づいて前記第1の視覚メディアの前記垂直遠近歪に対する前記現在の調整量の調整を可能にするように前記調整可能なコントロールを構成する、第2のアフォーダンスと、
を含む、項目219に記載の方法。
[項目221]
前記第1のアフォーダンス及び前記第2のアフォーダンスを表示している間に、選択されると、前記第1の視覚メディアの前記第1の表現内の視覚コンテンツを回転させる現在の調整量を示すように、前記調整可能なコントロールの前記インジケーションを更新する、第3のアフォーダンスを同時に表示すること、
を更に含む、項目220に記載の方法。
[項目222]
前記遠近歪が水平遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の水平遠近歪の量が、前記第1の視覚メディアの前記第2の表現の水平遠近歪の量とは異なる、
項目219から221のいずれか一項に記載の方法。
[項目223]
前記遠近歪が垂直遠近歪に対応し、
前記第1の視覚メディアの前記第1の表現の垂直遠近歪の量が、前記第1の視覚メディアの前記第2の表現の垂直遠近歪の量とは異なる、
項目219から222のいずれか一項に記載の方法。
[項目224]
前記第1の表現が、第1の実視水平線を含み、前記方法が、更に、
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアの前記表現内の視覚境界部に対する回転度を含む間に、前記第1の視覚メディアの前記表現の前記回転度を変化させる入力を検出することと、
前記第1の視覚メディアの前記表現の前記回転度を変化させる入力を検出したことに応答して、前記入力に基づいて判定された量だけ前記第1の視覚メディアの前記表現を回転させることと、
を含む、項目219から223のいずれか一項に記載の方法。
[項目225]
前記第1の表現が前記第1の視覚メディアの第1の視覚コンテンツを含み、前記方法が、
前記第1の視覚メディアの前記第1の表現が前記第1の視覚コンテンツを含む間に、前記第1の表現の前記コンテンツを変化させる1組の1つ以上の入力を検出することと、
前記第1の視覚メディアの前記第1の表現の前記コンテンツを変化させる前記1組の1つ以上の入力を検出したことに応答して、前記第1の視覚メディアの前記第1の視覚コンテンツとは異なる前記第1の視覚メディアの第2の視覚コンテンツを含む前記第1の視覚メディアの第4の表現を表示することと、
を含む、項目219から224のいずれか一項に記載の方法。
[項目226]
前記第1のユーザインタフェースが、自動調整アフォーダンスを含み、前記方法が、更に、
前記自動調整アフォーダンスに対応する入力を検出することと、
前記自動調整アフォーダンスに対応する前記入力を検出したことに応答して、
水平遠近歪パラメータ、垂直遠近歪パラメータ、回転パラメータからなる群より選択される、前記第1の視覚メディアの2つ以上のパラメータの現在値を自動的に調整することと、
前記2つ以上の調整されたパラメータの前記調整された現在値に基づいて、前記第1の視覚メディアの第5の表現を表示することと、
を含む、項目219から225のいずれか一項に記載の方法。
[項目227]
前記自動調整アフォーダンスを含む前記第1のユーザインタフェースを表示している間に、前記第1のユーザインタフェースとは異なる第3のユーザインタフェースを表示する要求に対応する第2の1組の1つ以上の入力を検出することと、
前記第2の1組の1つ以上の入力を検出したことに応答して、前記表示デバイス上に、第3のユーザインタフェースを表示すること、を含み、前記第3のユーザインタフェースを表示することが、
第2の視覚メディアの前記視覚コンテンツの少なくとも一部分の表現を表示することと、
前記第2の視覚メディアが前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含むという判定に従って、前記自動調整インタフェースを表示することと、
前記第2の視覚メディアが前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まないという判定に従って、前記自動調整インタフェースを表示するのをやめることと、
を更に含む、項目226に記載の方法。
[項目228]
前記第1の視覚メディアの前記第1の表現が、前記第1の視覚メディアがキャプチャされたときにもまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある追加の視覚コンテンツを含まない前記第1の視覚メディアの視覚コンテンツの第1の部分の表現であり、
前記第1の視覚メディアの前記第2の表現が、前記第1の視覚メディアがキャプチャされたときにもまたキャプチャされた前記視覚コンテンツの所定の空間的境界の外側にある前記追加の視覚コンテンツの少なくとも一部分を含む、
項目219から227のいずれか一項に記載の方法。
[項目229]
前記第1の視覚メディアの前記第1の表現が、第1のアスペクト比で表示され、
前記第1のユーザインタフェースが、アスペクト比アフォーダンスを含み、
前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応答して、前記第1のアスペクト比とは異なる第2のアスペクト比で前記第1の視覚メディアの第6の表現を表示することと、
を含む、項目219から228のいずれか一項に記載の方法。
[項目230]
前記第1の視覚メディアの前記第1の表現が、第1の向きで表示され、
前記第1のアスペクト比が、第1の水平アスペクト値及び第1の垂直アスペクト値を有し、
前記第1のユーザインタフェースが、アスペクト比アフォーダンスを含み、
前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記アスペクト比アフォーダンスに対応するユーザ入力を検出することと、
前記アスペクト比アフォーダンスに対応する前記ユーザ入力を検出したことに応答して、前記第1の視覚メディアの前記第1の表現を回転させることなく、前記第1のアスペクト比とは異なる第3のアスペクト比に対応する前記第1の視覚メディアの一部分を示す視覚的フィードバックを表示することと、を含み、前記第3のアスペクト比が、
前記第1の垂直アスペクト比値と等しい第2の水平アスペクト比値と、
前記第1の水平アスペクト比値と等しい第2の垂直アスペクト比値と、を有する、
項目229に記載の方法。
[項目231]
前記第1のユーザインタフェースを表示することが、
前記第1の視覚メディアが異なる時間に対応する複数のコンテンツのフレームを含むという判定に従って、前記画像の遠近歪、クロッピング、及び/又は回転を調整する1つ以上のコントロールとともに、前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する調整可能なコントロールを表示することを含む、
項目219から230のいずれか一項に記載の方法。
[項目232]
前記第1の視覚メディアの第7の表現であって、前記第7の表現が、前記第1の視覚メディア内の第1の時間に対応する、第7の表現の第1の部分の周囲に視覚境界部が表示され、
前記方法が、更に、
前記第1の視覚メディアに対応するコンテンツのどのフレームが表示されるかを調整する前記調整可能なコントロールを表示している間に、それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する要求を検出することと、
それぞれの時間に対応する前記第1の視覚メディアの前記時間ベースの表現を選択する前記要求を検出したことに応答して、
前記第1の視覚メディア内の第2の時間に対応する前記第1の視覚メディアの第8の表現を表示することと、
前記第1の視覚メディアの前記第8の表現の第1の部分の周囲に表示される視覚境界部の表示を維持することと、を含む、項目231に記載の方法。
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールが、前記表示デバイス上のそれぞれの場所に表示される、項目15に記載の方法。
[項目233]
前記第1の視覚メディアの前記第1の表現が、第1のズームレベルで表示され、前記方法が、更に、
前記第1の視覚メディアの前記第1の表現を表示している間に、前記第1の視覚メディアの表現のズームレベルを変更する要求を検出することと、
前記第1の視覚メディアの前記表現の前記ズームレベルを変更する前記要求を検出したことに応答して、前記第1のズームレベルとは異なる第2のズームレベルで前記第1の視覚メディアの第9の表現を表示することと、を含む、
項目219から232のいずれか一項に記載の方法。
[項目234]
前記第1の視覚メディアの前記第1の表現が、カメラレンズの形状及び/又は前記カメラの位置に基づく遠近歪を含み、
前記第1の視覚メディアの前記第2の表現が、カメラレンズの形状及び/又は前記カメラの位置に基づく前記遠近歪を低減するように調整される、
項目219から233のいずれか一項に記載の方法。
[項目235]
前記調整可能なコントロールが、遠近歪を補正するコントロールに対応し、
前記方法が、更に、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、前記調整可能なコントロールに向けられた前記ジェスチャの方向及び/又は大きさに従って、遠近歪に対する補正量を更新することを含む、
項目219から234のいずれか一項に記載の方法。
[項目236]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目219から235のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目237]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目219から235のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目238]
電子デバイスであって、
表示デバイスと、
項目219から235のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目239]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目240]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示することと、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出することと、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示することと、
の命令を含む、電子デバイス。
[項目241]
電子デバイスであって、
表示デバイスと、
前記表示デバイス上に、
第1の視覚メディアの第1の表現と、
前記第1の視覚メディアの遠近歪に対する現在の調整量のインジケーションを含む調整可能なコントロールと、を同時に表示することを含む第1のユーザインタフェースを表示する手段と、
前記表示デバイス上に、前記第1のユーザインタフェースを表示している間に、前記調整可能なコントロールに向けられたジェスチャを含むユーザ入力を検出する手段と、
前記調整可能なコントロールに向けられた前記ジェスチャを含む前記ユーザ入力を検出したことに応答して、
前記表示デバイス上に、前記ジェスチャの大きさに基づいて選択された前記遠近歪に対するそれぞれの調整量で前記第1の視覚メディアの第2の表現を表示する手段と、
を備える、電子デバイス。
[項目242]
方法であって、
表示デバイスを有する電子デバイスで、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、方法。
[項目243]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、
前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャすることと、
前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているという判定に従って、前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャすることと、
を更に含む、項目242に記載の方法。
[項目244]
前記第1の複数の画像内の画像の量が、前記第2の複数の画像内の画像の前記量とは異なる、項目243に記載の方法。
[項目245]
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、及び前記第1のキャプチャ持続時間にわたって前記第1の複数の画像をキャプチャするように前記電子デバイスが構成されているという前記判定に従って、前記第1の複数の画像のうちの少なくともいくらかのコンテンツを含む第1の合成画像を生成することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求を受信したことに応答して、及び前記第2のキャプチャ持続時間にわたって前記第2の複数の画像をキャプチャするように前記電子デバイスが構成されているという前記判定に従って、前記第2の複数の画像のうちの少なくともいくらかのコンテンツを含む第2の合成画像を生成することと、
を更に含む、項目243又は244に記載の方法。
[項目246]
前記コントロールが、前記第1のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、前記電子デバイスの第1の安定度を検出することと、
前記電子デバイスの前記第1の安定度を検出したことに応答して、
前記電子デバイスの前記第1の安定度が、第1の安定性閾値を上回るという判定に従って、
前記コントロールが、前記第1のキャプチャ持続時間より長い第3のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第3のキャプチャ持続時間にわたって第3の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を更に含む、項目242から245のいずれか一項に記載の方法。
[項目247]
前記低光カメラモードがアクティブである間に、前記低光キャプチャモードの状態を示し、かつ
キャプチャ持続時間表示基準が満たされているという判定に従って、前記第1のキャプチャ持続時間の視覚表現を含み、
持続時間表示基準が満たされていないという判定に従って、前記第1のキャプチャ持続時間の前記視覚表現を含まない、第1の低光キャプチャ状態インジケータを表示すること、
を更に含む、項目242から246のいずれか一項に記載の方法。
[項目248]
前記キャプチャ持続時間表示基準が、前記1つ以上のカメラの前記視野内の周辺光が第1の所定の範囲内にあると満たされる基準を含む、項目247に記載の方法。
[項目249]
前記低光カメラモードがアクティブである前に、
前記1つ以上のカメラの前記視野内の周辺光が第2の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態がアクティブであることを示し、第3のキャプチャ持続時間の視覚表現を含む第2の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第4の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態がアクティブであることを示し、前記第3のキャプチャ持続時間の前記視覚表現を含まない第3の低光キャプチャ状態インジケータを表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第5の所定の範囲内にあるという判定に従って、前記低光キャプチャモードの状態が利用可能であることを示す第4の低光キャプチャ状態インジケータを表示することであって、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータとが、互いに視覚的に異なる、表示することと、
前記1つ以上のカメラの前記視野内の周辺光が第6の所定の範囲内にあるという判定に従って、前記第2の低光キャプチャ状態インジケータと、前記第3の低光キャプチャ状態インジケータと、前記第4の低光キャプチャ状態インジケータと、を表示するのをやめることと、
を更に含む、項目242から248のいずれか一項に記載の方法。
[項目250]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが、
第1の推奨されるキャプチャ持続時間値に対応する第1の状態と、
第2の推奨されるキャプチャ持続時間値に対応する第2の状態と、
第3の推奨されるキャプチャ持続時間値に対応する第3の状態と、を調整可能なように構成されている、
項目242から249のいずれか一項に記載の方法。
[項目251]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準の判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第1のキャプチャ持続時間が前記第2の推奨されるキャプチャ持続時間値である、表示することと、
1組の第2のキャプチャ持続時間基準の判定に従って、前記第2の状態に調整されたメディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することであって、前記第2のキャプチャ持続時間が、前記第2の推奨されるキャプチャ持続時間値である、表示することと、
を含む、項目250に記載の方法。
[項目252]
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールを表示することが、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、前記第3の推奨されるキャプチャ持続時間値が、第3のキャプチャ持続時間値であり、
メディアをキャプチャする前記キャプチャ持続時間を調整する前記コントロールが前記第3の状態にあるとの前記判定、及び前記1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、前記第3の推奨されるキャプチャ持続時間値が、前記第3のキャプチャ持続時間値とは異なる第4のキャプチャ持続時間値であることを含む、
項目250又は251に記載の方法。
[項目253]
前記第2のキャプチャ持続時間値が第5のキャプチャ持続時間値であり、前記第3の推奨されるキャプチャ持続時間値が第6のキャプチャ値であり、前記方法が、更に、
メディアをキャプチャするキャプチャ持続時間を調整する前記コントロールを表示している間に、前記電子デバイスの現在の条件の第1の変化を検出することと、
前記電子デバイスの現在の条件の前記第1の変化を検出したことに応答して、
第1の現在の条件が第3のキャプチャ持続時間基準を満たすという判定に従って、
前記第5のキャプチャ持続時間が第7のキャプチャ持続時間とは異なる、前記第2の推奨されるキャプチャ持続時間値から第7のキャプチャ持続時間と、
第8のキャプチャ持続時間が前記第6のキャプチャ持続時間とは異なる、前記第3の推奨されるキャプチャ持続時間値から第8のキャプチャ持続時間と、のうちの少なくとも1つを変更することと、
を含む、項目250から252のいずれか一項に記載の方法。
[項目254]
前記1組の第1のキャプチャ持続時間基準が、
前記1つ以上のカメラの前記視野内で検出された周辺光と、
前記1つ以上のカメラの前記視野内で検出された移動と、
前記電子デバイスの第2の安定度と、からなる群から選択される1つ以上のパラメータに基づく基準と、
を含む、項目250から253のいずれか一項に記載の方法。
[項目255]
前記メディアキャプチャユーザインタフェースを表示することが、前記1つ以上のカメラの前記視野の前記表現と同時に、メディアをキャプチャするアフォーダンスを表示することを含み、前記方法が、更に、
メディアをキャプチャする前記アフォーダンスを表示し、かつ前記コントロールが第3のキャプチャ持続時間に設定されているという前記インジケーションを表示している間に、メディアをキャプチャする前記アフォーダンスの選択を含む第1の入力を検出することであって、メディアをキャプチャする前記アフォーダンスの選択が、前記1つ以上のカメラの前記視野に対応する画像をキャプチャする前記単一の要求に対応する、検出することと、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記第1のキャプチャ持続時間にわたって第4の複数の画像のキャプチャを開始することと、
を含む、項目250から254のいずれか一項に記載の方法。
[項目256]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションが、第1のインジケーションであり、
前記第1のインジケーションが、前記第3のキャプチャ持続時間に対応する前記コントロール上の第1の位置に表示され、
前記方法が、更に、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記コントロール上の前記第1の位置から前記コントロール上の第2の位置へと前記第1のインジケーションを動かすアニメーションを表示することと、
前記第2の位置に前記第1のインジケーションを表示したことに応答して、前記コントロール上の前記第1の位置に前記第1のインジケーションを再表示することと、
を含む、項目255に記載の方法。
[項目257]
前記コントロールが前記第3のキャプチャ持続時間に設定されているという前記インジケーションが、第2のインジケーションであり、
前記第2のインジケーションが、前記第3のキャプチャ持続時間に対応する前記コントロール上の第3の位置に表示され、
前記方法が、更に、
メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、
前記コントロール上の前記第3の位置から前記コントロール上の第4の位置へと前記第2のインジケーションを動かすアニメーションを表示することと、
前記アニメーションを表示している間に、前記電子デバイスの現在の条件の第2の変化を検出することと、
前記条件の第2の変化を検出したことに応答して、
第2の現在の条件が第4のキャプチャ持続時間基準を満たすという判定に従って、及び前記第4の位置に前記第1のインジケーションを表示したことに応答して、前記第3のキャプチャ持続時間とは異なる第4のキャプチャ持続時間に対応する前記コントロール上の第5の位置に前記第2のインジケーションを表示することと、
を含む、項目256に記載の方法。
[項目258]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、メディアをキャプチャする前記アフォーダンスの視覚外観を変更すること、
を更に含む、項目255から257のいずれか一項に記載の方法。
[項目259]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記メディアをキャプチャする前記アフォーダンスの表示を、前記メディアをキャプチャする前記アフォーダンスと視覚的に異なる、メディアのキャプチャを終了するアフォーダンスの表示に置き換えること、
を更に含む、項目255から258のいずれか一項に記載の方法。
[項目260]
前記メディアをキャプチャする前記アフォーダンスに対応する前記第1の入力を検出したことに応答して、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの間の差の視覚インジケーションを表示すること、
を更に含む、項目255から259のいずれか一項に記載の方法。
[項目261]
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後に、及び前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャの終了を検出する前に、
前記第1のキャプチャ持続時間が閾値を上回るという判定に従って、1つ以上の低光モードアニメーションを表示することと、
前記第1のキャプチャ持続時間が閾値を上回らないという判定に従って、前記1つ以上の低光モードアニメーションを表示するのをやめることと、
を更に含む、項目255に記載の方法。
[項目262]
前記メディアをキャプチャしている間に、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第1の時間において、前記第1の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第3の合成画像の表現を表示することと、
前記第1のキャプチャ持続時間にわたる前記第1の複数の画像のキャプチャを開始した後の第2の時間において、前記第2の時間の前に前記1つ以上のカメラによってキャプチャされた複数の画像からの少なくともいくつかのコンテンツに基づく第4の合成画像の表現を表示することと、を含み、
前記第1の時間が前記第2の時間とは異なり、
前記第3の合成画像の前記表現が、前記第4の合成画像の前記表現と視覚的に区別されること、
を更に含む、項目242から261のいずれか一項に記載の方法。
[項目263]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目242から262のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目264]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目242から262のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目265]
電子デバイスであって、
表示デバイスと、
項目242から262のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目266]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、を含む、非一時的コンピュータ可読記憶媒体。
[項目267]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目268]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を備え、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目269]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、前記1つ以上のカメラの視野の表現を含むメディアキャプチャユーザインタフェースを表示することと、
前記表示デバイスを介して、前記メディアキャプチャユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラを介して、メディアのキャプチャを開始することと、
前記1つ以上のカメラを介して、メディアのキャプチャを開始した後の第1の時間において、
低光モードがアクティブであると満たされる基準を含む、1組のガイダンス基準が満たされているという判定に従って、前記表示デバイスを介して、前記メディアのキャプチャが開始されたときの前記電子デバイスのポーズと、メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスのポーズとの差の視覚インジケーションを表示することと、
を含む、方法。
[項目270]
前記1組のガイダンス基準が、閾値持続時間を上回る第1のキャプチャ持続時間にわたって複数の画像をキャプチャするように前記電子デバイスが構成されていると満たされる基準を含む、項目269に記載の方法。
[項目271]
前記視覚インジケーションが、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズを表す第1の1組の1つ以上の形状であって、前記第1の1組の1つ以上の形状が、前記メディアキャプチャユーザインタフェース上の第1の位置に表示される、第1の1組の1つ以上の形状と、
メディアのキャプチャを開始した後の前記第1の時間における前記電子デバイスの前記ポーズを表す第2の1組の1つ以上の形状であって、前記第2の1組の1つ以上の形状が、第2の位置に表示される、第2の1組の1つ以上の形状と、を含む形状の組を含む、
項目269から270のいずれか一項に記載の方法。
[項目272]
前記第1の1組の1つ以上の形状が、第1の色を含み、
前記第2の1組の1つ以上の形状が、前記第1の色とは異なる第2の色を含む、
項目271に記載の方法。
[項目273]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、前記メディアカメラユーザインタフェース上の前記第2の位置とは異なる前記メディアカメラユーザインタフェース上の第3の位置に前記第2の1組の1つ以上の形状を表示することと、
を更に含む、項目271又は272に記載の方法。
[項目274]
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にあるという判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状のうちの少なくとも1つをやめることと、
前記第1の1組の1つ以上の形状の前記第1の位置と、前記第2の1組の1つ以上の形状の第3の位置との間の差が、第1の閾値差内にないという判定に従って、前記第1の1組の1つ以上の形状又は前記第2の1組の1つ以上の形状の表示を維持することと、
を更に含む、項目271から273のいずれか一項に記載の方法。
[項目275]
キャプチャを開始した後の第2の時間において、前記電子デバイスのポーズの変化を検出することと、
前記電子デバイスの前記ポーズの前記変化を検出したことに応答して、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、前記メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にあるという判定に従って、触知出力を生成することと、
前記メディアのキャプチャが開始されたときの前記電子デバイスの前記ポーズと、メディアのキャプチャを開始した後の前記第2の時間における前記電子デバイスのポーズとの間の差が、第2の閾値差内にないという判定に従って、前記触知出力を生成するのをやめることと、
を更に含む、項目269から274のいずれか一項に記載の方法。
[項目276]
1組のガイダンス基準が満たされているという判定に従って、
メディアをキャプチャしている間に、前記電子デバイスを安定化させる要求に対応する表現を表示すること、
を更に含む、項目269から275のいずれか一項に記載の方法。
[項目277]
前記1組のガイダンス基準が満たされていないという判定に従って、前記表示デバイスを介して、前記差の前記視覚インジケーションを表示するのをやめること、
を更に含む、項目269から276のいずれか一項に記載の方法。
[項目278]
前記視覚インジケーションが前記第1の時間に表示され、前記方法が、更に、
前記第1の時間とは異なる第3の時間において、前記メディアの前記キャプチャの終了を検出することと、
前記メディアの前記キャプチャの前記終了を検出したことに応答して、前記表示デバイスを介して、前記視覚インジケーションを表示するのをやめることと、
を含む、項目269から277のいずれか一項に記載の方法。
[項目279]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目269から278のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目280]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目269から278のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目281]
電子デバイスであって、
表示デバイスと、
項目269から278のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目282]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、非一時的コンピュータ可読記憶媒体。
[項目283]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示することを含むメディアキャプチャユーザインタフェースを表示することと、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示することと、の命令を含み、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる前記1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目284]
電子デバイスであって、
表示デバイスと、
前記表示デバイスを介して、
前記1つ以上のカメラの視野の表現を表示する手段を含むメディアキャプチャユーザインタフェースを表示する手段と、
低光カメラモードがアクティブである間に、メディアをキャプチャするキャプチャ持続時間を調整するコントロールを表示する手段と、を備え、前記コントロールを表示することが、
1組の第1のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが第1のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの視野に対応する画像をキャプチャする単一の要求に応答して、前記第1のキャプチャ持続時間にわたって第1の複数の画像をキャプチャするように前記電子デバイスを構成することと、
前記1組の第1のキャプチャ持続時間基準とは異なる1組の第2のキャプチャ持続時間基準が満たされているという判定に従って、
前記コントロールが前記第1のキャプチャ持続時間より長い第2のキャプチャ持続時間に設定されているというインジケーションを表示することと、
前記1つ以上のカメラの前記視野に対応する前記画像をキャプチャする前記単一の要求に応答して、前記第2のキャプチャ持続時間にわたって第2の複数の画像をキャプチャするように前記電子デバイスを構成することと、
を含む、電子デバイス。
[項目285]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示すること、
を含む、方法。
[項目286]
前記第2の領域が、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目285に記載の方法。
[項目287]
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記電子デバイスの焦点設定を調整する第1の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第1の要求を受信したことに応答して、前記1つ以上のカメラの前記視野内の第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第2のそれぞれのオブジェクトが前記1つ以上のカメラからの第3の距離であると満たされる基準を含む、1組の第3のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、
を含む、項目285又は286に記載の方法。
[項目288]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示している間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第1の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の前記第1の変化を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第4の距離であると満たされる基準を含む、1組の第4のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、
を更に含む、項目285から287のいずれか一項に記載の方法。
[項目289]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることが、
前記第2の領域内に、前記第2の領域内に以前に表示された前記1つ以上のカメラの前記視野の第3の部分のうちの少なくともいくらかの表示を停止すること、
を含む、項目285から288のいずれか一項に記載の方法。
[項目290]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることが、前記第2の領域に重ねられた第1の黒化層の不透明度を増大させることを含む、項目285から289のいずれか一項に記載の方法。
[項目291]
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成され、前記方法が、更に、
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示していない間に、前記電子デバイスの焦点設定を調整する第2の要求を受信することと、
前記電子デバイスの前記焦点設定を調整する前記第2の要求を受信したことに応答して、前記1つ以上のカメラの前記視野内の第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスを構成することと、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトに焦点を合わせるように前記電子デバイスが構成されている間に、
前記1つ以上のカメラの前記視野内の前記第3のそれぞれのオブジェクトが前記1つ以上のカメラから第5の距離であると満たされる基準を含む、1組の第5のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を含む、項目285から290のいずれか一項に記載の方法。
[項目292]
前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示していない間に、前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の距離の第2の変化を検出することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトと前記1つ以上のカメラとの間の前記距離の前記第2の変化を検出したことに応答して、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第6の距離であると満たされる基準を含む、前記1組の第6のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することと、
を更に含む、項目285から291のいずれか一項に記載の方法。
[項目293]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、前記第2の領域内に、前記第2の領域内に以前に表示されなかった前記1つ以上のカメラの前記視野の第4の部分を表示することを含む、項目285から292のいずれか一項に記載の方法。
[項目294]
前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、前記第2の領域に重ねられた第2の黒化層の前記不透明度を減少させることを含む、項目285から293のいずれか一項に記載の方法。
[項目295]
前記第1の視覚外観が、第1の視覚プロミネンスを含み、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示することが、
前記1つ以上のカメラの前記視野の前記第2の部分を第2の視覚外観から前記第1の視覚外観に徐々に遷移させるアニメーションを表示することを含み、前記第2の視覚外観が、前記第1の視覚プロミネンスとは異なる第2の視覚プロミネンスを有する、
項目285から294のいずれか一項に記載の方法。
[項目296]
前記第1の部分が、前記第1の視覚外観とは異なる第3の視覚外観で表示され、
前記方法が、更に、
前記第1の部分が、前記第3の視覚外観で表示され、かつ前記1つ以上のカメラの前記視野の前記第2の部分が、前記第1の視覚外観で表示されることを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記1つ以上のカメラの前記視野に対応する前記メディアをキャプチャした後に、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、前記メディアの表現を表示することと、
を含む、項目285に記載の方法。
[項目297]
前記第2の領域の少なくとも第1の部分が、前記第1の領域の上方にある、項目285から296のいずれか一項に記載の方法。
[項目298]
前記第2の領域の少なくとも第2の部分が、前記第2の領域の下方にある、項目285から297のいずれか一項に記載の方法。
[項目299]
前記カメラユーザインタフェース上の場所で入力を受信することと、
前記カメラユーザインタフェース上の前記場所で前記入力を受信したことに応答して、
前記入力の前記場所が前記第1の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記場所が前記第2の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成するのをやめることと、
を更に含む、項目285から298のいずれか一項に記載の方法。
[項目300]
前記第1の外観で表示されると、前記第2の領域が前記第1の領域と視覚的に区別される、項目285から299のいずれか一項に記載の方法。
[項目301]
前記1組の第1のそれぞれの基準が、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内で識別された最も近いオブジェクトであると満たされる基準を含む、項目285から300のいずれか一項に記載の方法。
[項目302]
前記1組の第1のそれぞれの基準が、前記第1のそれぞれのオブジェクトが前記1つ以上のカメラの前記視野内の焦点の場所にあると満たされる基準を含む、項目285から301のいずれか一項に記載の方法。
[項目303]
前記第1の領域が、境界部によって前記第2の領域から分離され、
前記1組の第1のそれぞれの基準が、前記境界部に隣接する検出された視覚的引裂きが視覚的引裂きの閾値レベルを上回ると満たされる基準を含む、項目285から302のいずれか一項に記載の方法。
[項目304]
前記1組の第1のそれぞれの基準が、前記1つ以上のカメラの前記視野の前記第1の部分が第1のカメラの視野の一部分であると満たされる基準を含み、
前記1組の第2のそれぞれの基準が、前記1つ以上のカメラの前記視野の前記第2の部分が第2のカメラの視野の一部分であると満たされる基準を含む、項目285から303のいずれか一項に記載の方法。
[項目305]
前記1つ以上のカメラの前記視野の前記第2の部分を第1の視覚外観で表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記1つ以上のカメラの前記視野の前記第1の部分からのコンテンツ及び前記1つ以上のカメラの前記視野の前記第2の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらか及び前記1つ以上のカメラの前記視野の前記第2の部分からの前記コンテンツのうちの少なくともいくらかを含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目285から304のいずれか一項に記載の方法。
[項目306]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目285から305のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目307]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目285から305のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目308]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目285から305のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目309]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令を含む、
非一時的コンピュータ可読記憶媒体。
[項目310]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示することの命令と、
を含む、電子デバイス。
[項目311]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の第1の部分の第1の表現を含む第1の領域と、
前記第1の領域の外側にあり、前記第1の領域と視覚的に区別される第2の領域であって、
前記1つ以上のカメラの前記視野内の第1のそれぞれのオブジェクトが前記1つ以上のカメラから第1の距離であると満たされる基準を含む、1組の第1のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の第2の部分を第1の視覚外観で表示することと、
前記1つ以上のカメラの前記視野内の前記第1のそれぞれのオブジェクトが前記1つ以上のカメラから第2の距離であると満たされる基準を含む、1組の第2のそれぞれの基準が満たされているという判定に従って、前記第2の領域内に、前記1つ以上のカメラの前記視野の前記第2の部分を前記第1の視覚外観で表示するのをやめることと、を含む、第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
を備える、電子デバイス。
[項目312]
方法であって、
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラとを有する電子デバイスで、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、
を含む、方法。
[項目313]
前記第2のカメラの前記視野の前記第1の部分が、前記第2のカメラの前記視野の前記第2の部分とは異なる、項目312に記載の方法。
[項目314]
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分の前記表現を表示し、かつ前記第2の領域において、前記第2のズームレベルで、前記第2のカメラの前記視野の前記第2の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第3のズームレベルまで上げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第3のズームレベルまで上げる前記第2の要求を受信したことに応答して、
前記第3のズームレベルが第1のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第3の部分の表現を表示することと、
前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の第4の部分の表現を表示することと、
を更に含む、項目312又は313に記載の方法。
[項目315]
前記第1の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第3の部分の前記表現を表示し、かつ前記第2の領域において、前記第3のズームレベルで、前記第1のカメラの前記視野の前記第4の部分の前記表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第4のズームレベルまで上げる第3の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第4のズームレベルまで上げる前記第3の要求を受信したことに応答して、
前記第4のズームレベルが第2のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第4のズームレベルで、第3のカメラの前記視野の第3の部分の少なくとも1つのサブセット除外する前記第3のカメラの前記視野の第5の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第5の部分の表現を表示することと、
を更に含む、項目314に記載の方法。
[項目316]
前記第1の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも1つのサブセット除外する第3のカメラの前記視野の第4の第5の部分の表現を表示し、かつ前記第2の領域において、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第4のズームレベルで、前記第3のカメラの前記視野の前記第5の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第5の第4の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第5のズームレベルまで上げる第4の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第5のズームレベルまで上げる前記第4の要求を受信したことに応答して、
前記第5のズームレベルが第3のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示することと、
前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示することと、
を更に含む、項目315に記載の方法。
[項目317]
前記第1の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第6の部分の表現を表示し、かつ前記第2の領域において、前記第5のズームレベルで、前記第3のカメラの前記視野の第7の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第6のズームレベルまで下げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第6のズームレベルまで下げる前記第1の要求を受信したことに応答して、
前記第2の領域内に表示するように、前記第6のズームレベルが第4のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第3の部分の少なくとも1つのサブセット除外する前記第3のカメラの前記視野の第8の部分の表現を表示することと、
前記第2の領域において、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第6のズームレベルで、前記第3のカメラの前記視野の前記第8の部分から除外された前記第3のカメラの前記視野の前記部分の前記サブセットと重なる前記第1のカメラの前記視野の第8の部分の表現を表示することと、
を更に含む、項目316に記載の方法。
[項目318]
前記第1のカメラの前記視野の第8の部分の少なくとも1つの前記サブセットの表現を表示することなく、前記第1の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも1つのサブセットと重なる前記第3のカメラの前記視野の第8の部分の表現を表示し、かつ前記第2の領域において、前記第6のズームレベルで、前記第1のカメラの前記視野の前記第8の部分の少なくとも1つの前記サブセット除外する前記第1のカメラの前記視野の第8の部分の表現を表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第7のズームレベルまで下げる第2の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを前記第7のズームレベルまで下げる前記第1の要求を受信したことに応答して、
前記第7のズームレベルが第5のズーム値範囲内にあるという判定に従って、
前記第1の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第1の第9の部分の表現を表示することと、
前記第2の領域において、前記第7のズームレベルで、前記第1のカメラの前記視野の第10の部分の表現を表示することと、
を更に含む、項目317に記載の方法。
[項目319]
前記第2の領域が、複数のカメラ設定を制御する複数のコントロールアフォーダンスを含む、項目312から319のいずれか一項に記載の方法。
[項目320]
前記カメラユーザインタフェース上の場所で入力を受信することと、
前記カメラユーザインタフェース上の前記場所で前記入力を受信したことに応答して、
前記入力の前記場所が前記第1の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成することと、
前記入力の前記場所が前記第2の領域内にあるという判定に従って、前記入力の前記場所に焦点を合わせるように前記電子デバイスを構成するのをやめることと、
を更に含む、項目312から320のいずれか一項に記載の方法。
[項目321]
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、メディアをキャプチャする要求を受信することと、
メディアをキャプチャする前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野に対応するメディアをキャプチャすることであって、前記メディアが、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からのコンテンツ及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からのコンテンツを含む、メディアをキャプチャすることと、
前記メディアをキャプチャした後に、前記キャプチャされたメディアを編集する要求を受信することと、
前記キャプチャされたメディアを編集する前記要求を受信したことに応答して、前記第1のズームレベルでの前記第1のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらか及び前記第1のズームレベルでの前記第2のカメラの前記視野の前記第1の部分からの前記コンテンツのうちの少なくともいくらかを含む、前記キャプチャされたメディアの表現を表示することと、
を更に含む、項目312に記載の方法。
[項目322]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目312から321のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目323]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目312から321のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目324]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
また、
項目312から321のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目325]
表示デバイスと、視野を有する第1のカメラと、前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、を備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、の命令と、
を含む、非一時的コンピュータ可読記憶媒体。
[項目326]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示することと、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信することと、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示することと、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示することと、の命令と、
を含む、電子デバイス。
[項目327]
電子デバイスであって、
表示デバイスと、
視野を有する第1のカメラと、
前記第1のカメラの前記視野よりも広い視野を有する第2のカメラと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
前記第1のズームレベルで前記第1のカメラの前記視野の第1の部分の表現を含む第1の領域と、
前記第1のズームレベルで前記第2のカメラの前記視野の第1の部分の表現を含む第2の領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記表示デバイスを介して、前記第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の前記表現を含む前記カメラユーザインタフェースを表示している間に、前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる第1の要求を受信する手段と、
前記1つ以上のカメラの前記視野の前記部分の前記表現の前記ズームレベルを第2のズームレベルまで上げる前記第1の要求を受信したことに応答して、
前記第1の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第1の部分の少なくとも1つのサブセット除外する前記第1のカメラの前記視野の第2の部分の表現を表示する手段と、
前記第2の領域において、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットの表現を表示することなく、前記第2の領域において、前記第2のズームレベルで、前記第1のカメラの前記視野の前記第2の部分から除外された前記第1のカメラの前記視野の前記部分の前記サブセットと重なる前記第2のカメラの前記視野の第2の部分の表現を表示する手段と、
を備える、電子デバイス。
[項目328]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
を含む、方法。
[項目329]
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられた前記ジェスチャであるという前記判定に従って、前記第2のズームアフォーダンスの視覚特性を維持し、前記第1のズームアフォーダンスの視覚特性を変更することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられた前記ジェスチャであるという前記判定に従って、前記第1のズームアフォーダンスの前記視覚特性を維持し、前記第2のズームアフォーダンスの前記視覚特性を変更することと、
を更に含む、項目328に記載の方法。
[項目330]
前記第1のズームアフォーダンスの前記視覚特性を変更することが、
前記第1のズームアフォーダンスのサイズを第1のサイズから第2のサイズに変更することであって、前記第1のズームアフォーダンスの前記第2のサイズが、前記第2のズームアフォーダンスの現在のサイズとは異なる、変更することと、
前記第1のズームアフォーダンスの色を第1の色から第2の色に変更することであって、前記第1のズームアフォーダンスの前記第2の色が、前記第2のズームアフォーダンスの現在の色とは異なる、変更することと、のうちの1つ以上を含む、
項目329に記載の方法。
[項目331]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現を表示している間に、前記第1のズームアフォーダンスに向けられた第2のジェスチャを受信することと、
前記第1のズームアフォーダンスに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のズームアフォーダンスが第1のそれぞれの基準を満たすという判定に従って、第4のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第4の表現を表示することと、前記第1のズームアフォーダンスが第2のそれぞれの基準を満たすという判定に従って、
前記第4のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第4の表現を表示するのをやめることと、
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の前記部分の前記第2の表現の表示を維持することと、
を更に含む、項目328から330のいずれか一項に記載の方法。
[項目332]
前記第1のジェスチャが、第1のタイプのジェスチャであり、前記方法が、更に、
前記第1のズームアフォーダンスに向けられた第3のジェスチャを受信することであって、前記第3のジェスチャが、前記第1のタイプのジェスチャとは異なる第2のタイプのジェスチャである、受信することと、
前記第1のズームアフォーダンスに向けられた前記第3のジェスチャを受信したことに応答して、第1の現在表示されている表現の前記ズームレベルを変更するコントロールを表示することであって、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールが、前記第1の現在表示されている表現の現在のズームレベルの第1のインジケーションを含む、表示することと、
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示している間に、前記ズームレベルを変更する前記コントロールに向けられた第4のジェスチャを受信することと、
前記ズームレベルを変更する前記コントロールに向けられた前記第4のジェスチャを受信したことに応答して、
前記ズームレベルを変更する前記コントロール上に第5のズームレベルの第2のインジケーションを表示することと、
前記第5のズームレベルで、前記1つ以上のカメラの前記視野の第4の表現を表示することと、
を含む、項目328から331のいずれか一項に記載の方法。
[項目333]
前記第1の現在表示されている表現の前記ズームレベルの前記第1のインジケーションが、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロール上の選択されたズームレベルに対応する位置に表示される、項目332に記載の方法。
[項目334]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールが、回転可能なユーザインタフェース要素である、項目332又は333に記載の方法。
[項目335]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示することが、前記複数のズームアフォーダンスの表示を、前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールの前記表示に置き換えることを含む、項目332から334のいずれか一項に記載の方法。
[項目336]
前記第3のジェスチャが、第1の方向への移動を含み、
前記第4のジェスチャが、前記第1の方向とは異なる第2の方向への移動を含む、
項目332から335のいずれか一項に記載の方法。
[項目337]
前記ズームレベルを変更する前記コントロールに向けられた前記第4のジェスチャを受信した後に、前記第4のジェスチャのリフトオフを検出することと、
前記第4のジェスチャのリフトオフを検出した後に、
所定の時間枠内で前記ズームレベルを変更する前記コントロールに向けられたジェスチャがないという判定に従って、前記ズームレベルを変更する前記コントロールの表示を停止することと、
を更に含む、項目332から336のいずれか一項に記載の方法。
[項目338]
前記第1の現在表示されている表現の前記ズームレベルを変更する前記コントロールを表示することが、
前記調整可能なコントロール上に複数の視覚インジケータを同時に表示することを含み、前記ズームアフォーダンスに対応する前記複数のズームレベルのそれぞれが、前記複数の視覚インジケータの異なる対応する視覚インジケータで表される、項目332から337のいずれか一項に記載の方法。
[項目339]
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが、前記複数のズーミングアフォーダンスのうちの少なくとも1つを目的とせず、前記表現の第1の部分に向けられたという判定に従って、前記第1のジェスチャの場所に焦点を合わせるように前記電子デバイスを構成すること、
を更に含む、項目328から338のいずれか一項に記載の方法。
[項目340]
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが、前記複数のズーミングアフォーダンスのうちの少なくとも1つを目的とせず、前記表現の第2の部分に向けられたという判定に従って、前記第1のジェスチャの場所に焦点を合わせるように前記電子デバイスを構成するのをやめること、
を更に含む、項目328から339のいずれか一項に記載の方法。
[項目341]
前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現が、前記1つ以上のカメラの第1のカメラの前記視野の少なくとも一部分の表現であり、
前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第3の表現が、前記1つ以上のカメラの第2のカメラの前記視野の少なくとも一部分の表現であり、
前記第1のカメラが、前記第2のカメラとは異なる、
項目328から340のいずれか一項に記載の方法。
[項目342]
前記第2のズームレベルで、前記1つ以上のカメラの前記視野の少なくとも前記部分の前記第2の表現を表示することが、
前記第2のズームレベルが第6のズームレベルであるという判定に従って、前記第2の表現の一部分を第1の視覚外観で表示することと、
前記第2のズームレベルが前記第6のズームレベルとは異なる第7のズームレベルであるという判定に従って、前記第2の表現の一部分を、前記第1の視覚外観とは異なる第2の視覚外観で表示することと、
を含む、項目328から341のいずれか一項に記載の方法。
[項目343]
前記複数のズームアフォーダンスが、第3のズームアフォーダンスを含み、
前記方法が、更に、
第2の現在表示されている表現の前記ズームレベルを変更する要求を受信することと、
前記第2の現在表示されている表現の前記ズームレベルを第8のズームレベルに変更する要求を受信したことに応答して、
前記第8のズームレベルが第1のズーム値範囲内にあるという判定に従って、前記第1のズームアフォーダンスの表示を、前記第8のズームレベルに対応する第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第2のズーム値範囲内にあるという判定に従って、前記第2のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
前記第8のズームレベルが第3のズーム値範囲内にあるという判定に従って、前記第3のズームアフォーダンスの表示を、前記第8のズームレベルに対応する前記第4のズームアフォーダンスの表示に置き換えることと、
を含む、項目328から342のいずれか一項に記載の方法。
[項目344]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目328から343のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目345]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目328から343のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目346]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目328から343のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目347]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目348]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示することと、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信することと、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示することと、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示することと、
の命令を含む、電子デバイス。
[項目349]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、第1のズームレベルで表示された前記1つ以上のカメラの視野の少なくとも一部分の第1の表現を含むカメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、複数のズーミングを含み、前記複数のズームアフォーダンスが、第1のズームアフォーダンス及び第2のズームアフォーダンスを含む、カメラユーザインタフェースを表示する手段と、
前記複数のズーミングアフォーダンスを表示している間に、前記複数のアフォーダンスのうちの1つに向けられた第1のジェスチャを受信する手段と、
前記第1のジェスチャを受信したことに応答して、
前記第1のジェスチャが前記第1のズームアフォーダンスに向けられたジェスチャであるという判定に従って、第2のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第2の表現を表示する手段と、
前記第1のジェスチャが前記第2のズームアフォーダンスに向けられたジェスチャであるという判定に従って、前記第1のズームレベル及び前記第2のズームレベルとは異なる第3のズームレベルで、前記1つ以上のカメラの視野の少なくとも一部分の第3の表現を表示する手段と、
を備える、電子デバイス。
[項目350]
方法であって、
表示デバイス及び1つ以上のカメラを有する電子デバイスで、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、
を含む、方法。
[項目351]
前記第2の1組のカメラ設定アフォーダンスが、前記第2のカメラモードの画像キャプチャを調整する設定である、項目350に記載の方法。
[項目352]
前記第2の1組のカメラ設定アフォーダンスが、前記第1の1組のカメラ設定アフォーダンスとは異なる、項目350又は351に記載の方法。
[項目353]
前記第1の1組のカメラ設定アフォーダンスが、フラッシュ設定アフォーダンス、画像キャプチャ設定アフォーダンス、アスペクト比カメラ設定アフォーダンス、フィルタ設定カメラ設定アフォーダンス、高ダイナミックレンジイメージングカメラ設定アフォーダンス、及び低光カメラ設定アフォーダンスのうちの1つ以上を含む、項目350から352のいずれか一項に記載の方法。
[項目354]
前記第1のジェスチャを検出することが、前記カメラユーザインタフェースに向けられた第1の接触を検出することを含み、前記方法が、更に、
前記第1のジェスチャを検出している間に、前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出することと、
前記第1の接触のリフトオフを検出する前に、前記第1のジェスチャの完了を検出したことに応答して、触知出力を提供することと、を含む、項目350から353のいずれか一項に記載の方法。
[項目355]
前記カメラユーザインタフェースを表示している間に、前記カメラユーザインタフェースに向けられた第3のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応答して、
前記第3のジェスチャが検出されたときに、前記第2の1組のカメラ設定アフォーダンスが表示されたという判定に従って、
第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で、第3の1組のカメラ設定アフォーダンスを表示することと、
前記第3のジェスチャが検出されたときに、前記第1の複数のカメラモードアフォーダンスが表示されたという判定に従って、
前記第2の1組のカメラ設定アフォーダンス及び前記第3の1組のカメラ設定アフォーダンスを表示することなく、前記第1の場所で、前記カメラの異なるカメラ動作モードを示す第2の複数のカメラモードアフォーダンスを表示することと、前記第1のカメラモード及び前記第3のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、を含み、前記第2の複数のカメラアフォーダンスが、前記第1の複数のカメラモードアフォーダンスとは異なること、
を更に含む、項目350から354のいずれか一項に記載の方法。
[項目356]
前記第1の場所で、前記第3の1組のカメラ設定アフォーダンスを表示することが、前記第1の1組のカメラ設定アフォーダンスを置き換える前記第3の1組のカメラ設定アフォーダンスのアニメーションを表示することを含み、項目355に記載の方法。
[項目357]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第1の部分の第1の表現であり、前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第1のタイプのカメラを介してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、前記1つ以上のカメラの前記視野の第2の部分の第2の表現を表示することを含み、前記視野の前記第2の部分が、前記1つ以上のカメラの前記視野の前記第1の部分のいくらかを含まない、項目350から356のいずれか一項に記載の方法。
[項目358]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第3の部分の第3の表現であり、前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第2のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、前記1つ以上のカメラの視野の第4の部分の第4の表現を表示することを含み、前記1つ以上のカメラの前記視野の前記第4の部分が、前記1つ以上のカメラの前記視野の前記第3の部分にない前記1つ以上のカメラの視野の一部分を含む、項目350から357のいずれか一項に記載の方法。
[項目359]
前記1つ以上のカメラの前記視野の前記表現が、前記1つ以上のカメラの前記視野の第5の部分の第5の表現であり、
前記第5の表現が、前記ディスプレイ上の第2の場所に表示され、
前記方法が、更に、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
第3のタイプのカメラを使用してメディアをキャプチャするように前記電子デバイスが構成されているという判定に従って、
前記ディスプレイ上の前記第2の場所から前記ディスプレイ上の前記第3の場所に前記第5の表現を動かすこと、
を含む、項目357又は358に記載の方法。
[項目360]
前記第1のカメラモードが、ポートレートモードであり、
前記1つ以上のカメラの視野の前記表現が、第1のズームレベルで表示され、
前記方法が、更に、
前記第1の複数のカメラモードアフォーダンスを表示している間に、
照明効果動作を制御するアフォーダンス及びズームアフォーダンスを表示することと、
前記ズームアフォーダンスを表示している間に、前記ズームアフォーダンスに向けられた第4のジェスチャを受信することと、
前記ズームアフォーダンスに向けられた前記第4のジェスチャを受信したことに応答して、第2のズームレベルで前記1つ以上のカメラの前記視野の表現を表示することと、
を含む、項目350から359のいずれか一項に記載の方法。
[項目361]
前記第1の複数のカメラモードアフォーダンスが、
選択されると、メディアをキャプチャする要求に応答して、前記電子デバイスに前記第1のカメラモードでメディアをキャプチャさせる第1のカメラモードアフォーダンスと、
選択されると、メディアをキャプチャする要求に応答して、前記電子デバイスに前記第2のカメラモードでメディアをキャプチャさせる第2のカメラモードアフォーダンスと、を含む、項目350から360のいずれか一項に記載の方法。
[項目362]
前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスが、前記第2のカメラモードアフォーダンスに隣接して表示される、項目361に記載の方法。
[項目363]
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出する前に、及び前記第1の複数のカメラモードアフォーダンスを表示している間に、前記第1のカメラモードアフォーダンスが、前記第1のカメラモードがアクティブであるというインジケーションとともに表示される、項目361又は362に記載の方法。
[項目364]
前記第1の場所で前記第2の1組のカメラ設定アフォーダンスを表示している間に、前記カメラインタフェースに向けられた第5のジェスチャを検出することと、
前記カメラインタフェースに向けられた前記第5のジェスチャを検出したことに応答して、
前記カメラの異なるカメラ動作モードを示す第3の複数のカメラモードアフォーダンスを表示することと、を含み、
前記第3の複数のカメラモードアフォーダンスが、前記第2のモードアフォーダンスを含み、
前記第2のカメラモードアフォーダンスが、前記第2のカメラモードがアクティブであるというインジケーションとともに表示されることと、
を更に含む、項目362又は363に記載の方法。
[項目365]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目350から364のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目366]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目350から364のいずれか一項に記載の方法を行う命令を含む、電子デバイス。
[項目367]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
項目350から364のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目368]
表示デバイス及び1つ以上のカメラを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目369]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示することと、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出することと、
前記カメラユーザインタフェースに向けられた前記第1のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示することであって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示することと、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止することと、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信することと、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成することと、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示することと、の命令と、
を含む、電子デバイス。
[項目370]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラと、
前記表示デバイスを介して、カメラユーザインタフェースを表示する手段であって、前記カメラユーザインタフェースが、
1つ以上のカメラの視野の表現を含むカメラディスプレイ領域と、
第1の場所で前記1つ以上のカメラの異なる動作モードを示す第1の複数のカメラモードアフォーダンスを含むカメラコントロール領域と、を含む、カメラユーザインタフェースを表示する手段と、
前記1つ以上のカメラの異なる動作モードを示す前記第1の複数のカメラモードアフォーダンスを表示している間に、前記カメラユーザインタフェースに向けられた第1のジェスチャを検出する手段と、
前記カメラユーザインタフェースに向けられた前記第3のジェスチャを検出したことに応答して、
前記第1の場所で第1の1組のカメラ設定アフォーダンスを表示する手段であって、前記第1の1組のカメラ設定アフォーダンスが、第1のカメラモードの画像キャプチャを調整する設定である、第1の1組のカメラ設定アフォーダンスを表示する手段と、
前記第1の場所で前記カメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスの表示を停止する手段と、
前記第1の場所で前記第1の1組のカメラ設定アフォーダンスを表示している間に、及び前記第1のカメラモードでメディアをキャプチャするように前記電子デバイスが構成されている間に、前記カメラユーザインタフェースに向けられた第2のジェスチャを受信する手段と、
前記カメラユーザインタフェースに向けられた前記第2のジェスチャを受信したことに応答して、
前記第1のカメラモードとは異なる第2のカメラモードでメディアをキャプチャするように前記電子デバイスを構成する手段と、
前記第1の場所で前記1つ以上のカメラの異なる動作モードを示す前記複数のカメラモードアフォーダンスを表示することなく、前記第1の場所で第2の1組のカメラ設定アフォーダンスを表示する手段と、
を備える、電子デバイス。
[項目371]
方法であって、
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。
[項目372]
前記メディアアイテムの前記表現を表示する前記要求を受信する前に、前記表示デバイスを介して、カメラユーザインタフェースを表示することであって、前記カメラユーザインタフェースが、
前記1つ以上のカメラの視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現が、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
を更に含む、項目371に記載の方法。
[項目373]
自動メディア補正基準が満たされているという前記判定に従って、自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の補正アフォーダンスを表示することと、
自動メディア補正基準が満たされていないという判定に従って、第2の補正アフォーダンス、前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されなかったことを示す前記第2の自動調整アフォーダンスを表示することと、を含み、前記第2の自動調整アフォーダンスが、前記第1の自動調整アフォーダンスとは視覚的に異なることと、
を更に含む、項目371又は372に記載の方法。
[項目374]
前記第1の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1の自動調整アフォーダンスの選択に対応する第1の入力を受信することと、
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目375]
前記第2の自動調整アフォーダンスを表示し、かつ前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第2の自動調整アフォーダンスの選択に対応する第2の入力を受信することと、
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、項目373に記載の方法。
[項目376]
前記以前にキャプチャされたメディアアイテムが、画像であり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、更に、前記縁部部分を含まない、項目371から375のいずれか一項に記載の方法。
[項目377]
前記以前にキャプチャされたメディアアイテムが、ビデオであり、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記第1の量の移動とは異なる第2の量の移動を含む、
項目371から376のいずれか一項に記載の方法。
[項目378]
前記以前にキャプチャされたメディアアイテムが、識別可能なオブジェクトを含み、
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの前記部分を含まない、こと、
を含む、項目371から377のいずれか一項に記載の方法。
[項目379]
前記自動メディア補正基準が、前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの前記視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されると満たされる第2の基準を含む、項目371から378のいずれか一項に記載の方法。
[項目380]
前記自動メディア補正基準が、前記以前にキャプチャされたメディアが表示される前に前記第2の基準が満たされたと満たされる第3の基準を含む、項目379に記載の方法。
[項目381]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされているという判定に従って、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第1の動作を行わせる第3の補正アフォーダンスを表示すること、
を更に含む、項目371から380のいずれか一項に記載の方法。
[項目382]
前記自動メディア補正基準が、自動適用設定が有効化されると満たされ、かつ前記自動適用設定が無効化されると満たされない基準を含む、項目371から381のいずれか一項に記載の方法。
[項目383]
前記自動適用設定が、ユーザ構成可能設定である、項目371から382のいずれか一項に記載の方法。
[項目384]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、
第1の1組の基準が満たされているという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第2の動作を行わせる第4の補正アフォーダンスを表示すること、
を更に含む、項目371から383のいずれか一項に記載の方法。
[項目385]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、及び自動メディア補正基準が満たされていないという判定に従って、
前記第1の1組の基準が満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、非選択可能インジケータを表示すること、
を更に含む、項目371から384のいずれか一項に記載の方法。
[項目386]
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
コンテンツ処理基準が満たされているという判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないという判定に従って、前記コンテンツ処理インジケータを表示するのをやめることと、
を更に含む、項目371から385のいずれか一項に記載の方法。
[項目387]
前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記コンテンツ処理インジケータの表示を停止すること、
を更に含む、項目386に記載の方法。
[項目388]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現に置き換えること、
を更に含む、項目386に記載の方法。
[項目389]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理インジケータを表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの第2の表現を表示することと、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記の前記の前記第2の描写を表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、項目386に記載の方法。
[項目390]
前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現に遷移することと、
を更に含む、項目371から389のいずれか一項に記載の方法。
[項目391]
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現のアニメーションを表示することと、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現に遷移することと、
を更に含む、項目371から390のいずれか一項に記載の方法。
[項目392]
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まないメディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションを表示するのをやめることと、
を更に含む、項目371から391のいずれか一項に記載の方法。
[項目393]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、項目371から392のいずれか一項に記載の方法を行う命令を含んでいる、非一時的コンピュータ可読記憶媒体。
[項目394]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、項目371から392のいずれか一項に記載の方法を行う命令と、
を含む、電子デバイス。
[項目395]
電子デバイスであって、
表示デバイスと、
項目371から392のいずれか一項に記載の方法を行う手段と、
を備える、電子デバイス。
[項目396]
表示デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、の命令を含む、非一時的コンピュータ可読記憶媒体。
[項目397]
電子デバイスであって、
表示デバイスと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
を備える電子デバイスであって、前記1つ以上のプログラムが、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、の命令と、
を含む、電子デバイス。
[項目398]
電子デバイスであって、
表示デバイスと、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信する手段と、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示する手段と、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示する手段と、
を含む、電子デバイス。
[項目399]
それぞれの時間に対応する前記第1の視覚メディアの時間ベースの表現を選択する前記調整可能なコントロールは、前記表示デバイス上のそれぞれの場所に表示される、
項目219から232のいずれか一項に記載の方法。
Therefore, although the disclosure broadly covers the use of personal information data to implement one or more various disclosed embodiments, the disclosure also covers such personal information data. It is conceivable that it is also possible to implement those various embodiments without requiring access to. That is, various embodiments of the present technology are not impractical due to the lack of all or part of such personal information data. For example, the media is a minimum of non-personal information data or personal information, such as content requested by the device associated with the user, other non-personal information available in the content delivery service, or publicly available information. It can be captured, accessed, and edited by inferring preferences based solely on a limited amount.
[Item 1]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Including methods.
[Item 2]
In response to detecting a change in the above conditions
Displaying the first control affordance and the second control affordance at the same time according to the determination that the first and second predetermined conditions are satisfied.
The method according to
[Item 3]
In response to detecting a change in the above conditions
According to the determination that the first predetermined condition is satisfied and the second predetermined condition is not satisfied, the first control affordance is displayed while the second control affordance is displayed. To stop doing and
According to the determination that the first predetermined condition is not satisfied and the second predetermined condition is satisfied, the second control affordance is displayed, while the first control affordance is displayed. To stop displaying and
The method according to
[Item 4]
When the amount of light in the field of view of the one or more cameras falls below the first predetermined threshold value, the first predetermined condition is satisfied, and the first control affordance controls the flash operation. The method according to any one of
[Item 5]
From
[Item 6]
When the amount of light in the field of view of the one or more cameras falls below a second predetermined threshold, the first predetermined condition is met and the first control affordance controls the low light capture mode. The method according to any one of
[Item 7]
When the electronic device is configured to capture an image in the first capture mode, the first predetermined condition is met and the first control affordance is an affordance that controls the lighting effect operation. , The method according to any one of
[Item 8]
While displaying the affordance that controls the lighting effect, receiving the selection of the affordance that controls the lighting effect and
Adjusting in response to receiving the selection of the affordance to control the lighting effect adjusts the lighting effect applied to the representation of the field of view of the one or more cameras. Displaying affordances to adjust and
7. The method of item 7.
[Item 9]
While displaying the first control affordance, simultaneously displaying the current state indication of the characteristics of the electronic device associated with the first control affordance.
The method according to any one of
[Item 10]
It is said that the characteristic has one or more active states and one or more inactive states, and displaying the indication is in at least one of the one or more active states. The method according to
[Item 11]
The method according to any one of
[Item 12]
9. The method of
[Item 13]
The characteristic is an image capture mode setting, the current state of the characteristic is that the image capture mode is enabled, and the electronic device responds to an input corresponding to a request to capture media. The method according to any one of
[Item 14]
The characteristic is a second image capture mode setting, the current state of the characteristic is that the second image capture mode is enabled, and the electronic device is required to capture media. 9. The method of any one of items 9-13, which is configured to capture media using a high dynamic range imaging effect in response to the corresponding input.
[Item 15]
The camera control area is displayed adjacent to the first side of the display device, and the indication is displayed adjacent to the second side of the display device on the side opposite to the first side. The method according to any one of
[Item 16]
One of
[Item 17]
In response to displaying the first control affordance,
Displaying the second indication associated with the first control according to the determination that the first control affordance is of the first type.
The determination that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control are in the active state. The second indication associated with the first control is displayed according to the determination.
The determination that the first control affordance is of a second type different from the first type, and the second characteristic of the electronic device associated with the first control are inactive. To stop displaying the second indication associated with the first control, according to the determination that it is in
The method according to any one of
[Item 18]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of a display device and an electronic device with one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises an instruction to perform the method according to any one of
[Item 19]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be executed by the one or more processors, wherein the one or more programs is any one of items 1-17. Instructions for performing the method described in the section, and
Including electronic devices.
[Item 20]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of
Equipped with an electronic device.
[Item 21]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
A non-temporary computer-readable storage medium that contains instructions for.
[Item 22]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. Displaying the camera user interface without displaying the associated second control affordance.
Detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
Displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
Displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Electronic devices, including instructions for.
[Item 23]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that includes a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area containing multiple control affordances,
While the first and second default conditions are not met, the first control affordance associated with the first default condition is not displayed and the second default condition is met. A means of displaying the camera user interface without displaying the associated second control affordance.
Means for detecting changes in conditions while displaying the camera user interface without displaying the first control affordance and without displaying the second control affordance.
In response to detecting a change in the above conditions
A means for displaying the first control affordance according to the determination that the first predetermined condition is satisfied, and
A means of displaying the second control affordance according to the determination that the second predetermined condition is satisfied, and
Equipped with an electronic device.
[Item 24]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
Stopping the display of the plurality of camera mode affordances and displaying the plurality of camera setting affordances at the first location according to the determination that the gesture is a second type of gesture different from the first type. Modifying the appearance of the camera control area, including: The camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Including methods.
[Item 25]
24. The method of item 24, wherein the camera control area comprises an affordance displaying a plurality of camera setting affordances, wherein the gesture of the second type is a selection of the affordance displaying one or more camera settings. ..
[Item 26]
24. The method of item 24, wherein the second type of gesture is the movement of contact within the camera display area.
[Item 27]
The method of any one of items 24-26, wherein the gesture of the first type is the movement of a contact on at least one of the plurality of camera mode affordances.
[Item 28]
To detect a second gesture on said camera user interface that corresponds to a request to display a first representation of previously captured media.
In response to detecting the second gesture, displaying the first representation of the previously captured media and
The method according to any one of items 24 to 27, further comprising.
[Item 29]
Using one or more of the cameras to detect a capture of the first media while not displaying a representation of the previously captured media,
In response to detecting the capture of the first media
Displaying one or more representations of the captured media, including the representation of the first media.
The method according to any one of items 24 to 28, further comprising.
[Item 30]
When the plurality of camera setting affordances are displayed, the affordances that configure the electronic device to capture the media displayed in the first aspect ratio in response to the first request to capture the media are included. , The method according to any one of items 24 to 29.
[Item 31]
When displayed, receiving a third request to capture the media while the device is configured to capture the media displayed in the first aspect ratio.
In response to receiving the third request to capture the media, displaying the representation of the captured media in the first aspect ratio and
Receiving a request to change the representation of the captured media having the first aspect ratio to the representation of the captured media having the second aspect ratio.
In response to receiving the request, displaying the representation of the captured media in the second aspect ratio.
The method according to any one of items 24 to 30, further comprising.
[Item 32]
31. The method of item 31, wherein the representation of the captured media having the second aspect ratio comprises visual content that does not exist within the representation of the captured media having the first aspect ratio.
[Item 33]
The representation of the field of view of the one or more cameras is displayed at the first zoom level, and the method further comprises.
Displaying the representation of the field of view of the one or more cameras receives a first request to change the zoom level of the representation while being displayed at the first zoom level.
In response to receiving the first request to change the zoom level of the representation,
According to the determination that the request to change the zoom level of the expression corresponds to the request to increase the zoom level of the expression, the second expression field of view of the one or more cameras is set to be larger than the first zoom level. Displaying at a large second zoom level and
According to the determination that the request to change the zoom level of the expression corresponds to the request to lower the zoom level of the expression, the third expression field of view of the one or more cameras is set to be larger than the first zoom level. Displaying at a small third zoom level and
The method according to any one of items 24 to 32, including.
[Item 34]
Receiving a second request to change the zoom level of the representation while displaying the representation of the field of view of the one or more cameras displayed at the fourth zoom level.
In response to receiving the second request to change the zoom level of the representation,
In accordance with the determination that the fourth zoom level is the second zoom level, displaying the fourth representation of the field of view of the one or more cameras at the third zoom level.
In accordance with the determination that the fourth zoom level is the third zoom level, displaying the fifth representation of the field of view of the one or more cameras at the first zoom level.
In accordance with the determination that the fourth zoom level is the first zoom level, displaying the sixth representation of the field of view of the one or more cameras at the second zoom level.
33. The method of item 33.
[Item 35]
Displaying the camera user interface includes displaying affordances that include graphical indications of the state of the capture settings.
The method of any one of items 24-34, wherein the second type of gesture corresponds to the selection of the indication.
[Item 36]
Displaying the plurality of camera setting affordances at the first location
A first set at the first location, according to the determination that the electronic device is configured to capture the media in the first camera mode while the second type of gesture is detected. To display the camera settings affordances and
According to the determination that the electronic device is configured to capture the media in a second camera mode different from the first camera mode while the second type of gesture is detected, the first. To display a second first camera setting affordance that is different from the first plurality of camera settings at the location of
The method according to any one of items 24 to 35, comprising.
[Item 37]
36. The method of item 36, wherein the first set of camera setting affordances includes a first camera setting affordance, and the second set of camera setting affordances includes the first camera setting affordance.
[Item 38]
The first camera mode is the still photo capture mode, and the first set of camera setting affordances
Affordances, including visual indications for flash settings,
Affordances, including visual indications for live settings,
Affordances, including visual indications for aspect ratio settings,
Affordances, including visual indications that correspond to timer settings,
Includes affordances that include visual indications that correspond to filter settings, and one or more affordances that are selected from the group consisting of.
The method according to item 36 or 37.
[Item 39]
The first camera mode is the portrait mode, and the first set of camera setting affordances
Affordances, including visual indications for depth control settings,
Affordances, including visual indications for flash settings,
Affordances, including visual indications that correspond to timer settings,
Affordances, including visual indications that correspond to filter settings,
Includes affordances that include visual indications that correspond to lighting settings, and one or more affordances that are selected from the group consisting of.
The method according to item 36 or 37.
[Item 40]
That the gesture is of the first type and that detecting the first gesture detects a first portion of the first gesture and a second portion of the first gesture. Including, said method further
In response to detecting the first portion of the first gesture, one or more separate pieces surrounding at least a portion of the representation of the field of view of the one or more cameras via the display device. Displaying boundaries, including boundary elements,
In response to detecting the second portion of the first gesture, the boundary is translated in the first direction until at least a portion of the boundary is translated from the display and the display is stopped. Including translating across the display of the display device.
The method according to item 24.
[Item 41]
40. The method of item 40, wherein detecting the second portion of the first gesture comprises detecting a second contact moving in the first direction.
[Item 42]
The second contact is detected on said representation of the field of view of the one or more cameras.
The speed at which the boundary is translated is proportional to the speed at which the second contact moves in the first direction.
The method according to item 41.
[Item 43]
41. The method of item 41, wherein translating the boundary alters the visual appearance of at least a portion of the representation of the field of view of the one or more cameras surrounded by the boundary.
[Item 44]
Detecting a second request to capture media while the electronic device is configured to capture media in a third camera mode.
In response to receiving the request, the one or more cameras are used based on the settings corresponding to the third camera mode and at least one setting corresponding to the affordances of the plurality of camera settings affordances. To capture the media
The method according to any one of items 24 to 43, further comprising.
[Item 45]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 24 to 44.
[Item 46]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 24 to 44. Instructions to perform the method described in
Including electronic devices.
[Item 47]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 24 to 44, and
Equipped with an electronic device.
[Item 48]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
According to the determination that the gesture is a second type of gesture different from the first type, the display of the plurality of camera mode affordances is stopped, and the plurality of camera setting affordances are performed at the first location. Non-temporary, including displaying and modifying the appearance of the camera control area, the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode. Computer-readable storage medium.
[Item 49]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that includes a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area containing multiple camera mode affordances, in a first location.
Detecting a first gesture on the camera user interface while displaying the camera user interface
Modifying the appearance of the camera control area in response to detecting the first gesture.
Displaying one or more additional camera mode affordances at said first location according to the determination that the gesture is a first type of gesture.
According to the determination that the gesture is a second type of gesture different from the first type, the display of the plurality of camera mode affordances is stopped, and the plurality of camera setting affordances are performed at the first location. Modifying the appearance of the camera control area, including displaying, where the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Electronic devices, including instructions for.
[Item 50]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that includes a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area, including multiple camera mode affordances, in a first location.
Means for detecting a first gesture on the camera user interface while displaying the camera user interface, and
A means of modifying the appearance of the camera control area in response to detecting the first gesture.
A means of displaying one or more additional camera mode affordances at said first location, according to the determination that the gesture is a first type of gesture.
A means of stopping the display of the plurality of camera mode affordances and a plurality of camera setting affordances at the first location according to the determination that the gesture is a second type of gesture different from the first type. A means of modifying the appearance of the camera control area, including a means of displaying, wherein the camera setting affordance is a setting that adjusts the image capture of the currently selected camera mode.
Equipped with an electronic device.
[Item 51]
It's a method
An electronic device that has a display device and one or more cameras.
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Including methods.
[Item 52]
While displaying the first representation of the visual content, detecting one or more sets of inputs corresponding to the request to modify the representation of the visual content.
In response to detecting one or more inputs of the set, the second representation of the visual content comprises displaying the second representation of the visual content, wherein the second representation of the visual content is one or more. From the visual content from at least a portion of the first portion of the field of view of the camera and from the second portion of the field of view of the one or more cameras not included in the first representation of the visual content. Visual content based on at least a portion of the visual content of
51. The method of item 51.
[Item 53]
The first expression of the visual content is an expression from a first visual point of view.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. It is an expression from a second visual viewpoint different from the first visual viewpoint, which is generated based on the above.
The method according to item 52.
[Item 54]
The first representation of the visual content is a representation in the first orientation.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. Is an expression in a second orientation different from the first orientation, which is generated based on the above.
The method according to item 52.
[Item 55]
The first representation is displayed at the first zoom level, and the method further
The first representation of the visual content is a representation at the first zoom level.
The second representation of the visual content is not included in the first representation of the visual content, at least the at least portion of the visual content from the second portion of the field of view of the one or more cameras. 52. The method of item 52, which is an expression of a second zoom level different from the first zoom level generated based on the above.
[Item 56]
The first representation of the visual content uses at least a second portion of the visual content from the second portion of the field of view of the one or more cameras to perform at least a portion of the digital image stabilization operation. The method according to any one of items 51 to 55, which is generated based on the above.
[Item 57]
After capturing the media item, performing an object tracking operation using at least a third portion of the visual content from the second portion of the field of view of the one or more cameras.
The method according to any one of items 51 to 56, further comprising.
[Item 58]
The request for displaying the media item is the first request for displaying the media item, and the method further comprises.
Corresponds to the first portion of the field of view of the one or more cameras without displaying the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. To receive a second request to display the media item after displaying the first representation of the visual content.
The first representation of the visual content and the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras in response to receiving the second request to display the media item. The method of any one of items 51-57, comprising displaying the representation of the visual content corresponding to the second portion of the field of view of one or more cameras.
[Item 59]
Displaying the camera user interface Displaying the second camera user interface via the display device in response to receiving the request and in accordance with the determination that the respective criteria are met. Thus, the second camera user interface does not include the representation of the second portion of the field of view of the one or more cameras, but of the first portion of the field of view of the one or more cameras. Displaying a second camera user interface, including the above representation.
The method according to any one of items 51 to 58, further comprising.
[Item 60]
The above method
Receiving a request to view previously captured media items and
In response to receiving the request to display the previously captured media item,
Displaying additional content indications according to the determination that the previously captured media item was captured when each of the above criteria was not met.
Stopping displaying additional content indications according to the determination that the previously captured media item was captured when each of the above criteria was met.
59. The method of item 59, further comprising.
[Item 61]
59 or 60. The method of item 59 or 60, wherein each of the criteria comprises a criterion in which the electronic device is configured to capture a media item at a resolution of 4000 horizontal pixels or higher.
[Item 62]
The method of any one of items 59-61, wherein each of the criteria comprises a criterion that the electronic device is configured to operate in portrait mode at a predetermined zoom level.
[Item 63]
The method according to any one of items 59 to 62, wherein each of the criteria comprises a criterion in which at least one of the one or more cameras is satisfied that the camera cannot maintain focus for a predetermined period of time.
[Item 64]
The input corresponding to the request for capturing media with the one or more cameras is the first input corresponding to the request for capturing media with the one or more cameras.
The above method further
While the camera user interface is displayed, detecting a second input corresponding to a request to capture media with the one or more cameras.
In response to detecting the second input corresponding to the request to capture the media with the one or more cameras
Based on the additional content settings, according to the determination that the electronic device is configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras.
Capturing the first representation of the visual content corresponding to the first portion of the field of view of the one or more cameras and corresponding to the second portion of the field of view of the one or more cameras. To capture the representation of at least a portion of the visual content
Based on the additional content settings, according to the determination that the electronic device is not configured to capture the visual content corresponding to the second portion of the field of view of the one or more cameras.
In the first portion of the field of view of the one or more cameras without capturing the representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Capturing the first representation of the corresponding visual content,
The method according to any one of items 51 to 63, comprising.
[Item 65]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 51-64.
[Item 66]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 51 to 64. Instructions to perform the method described in
Including electronic devices.
[Item 67]
It ’s an electronic device,
Display device and
With one or more cameras
A means for performing the method according to any one of items 51 to 64, and
Equipped with an electronic device.
[Item 68]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. A non-temporary computer-readable storage medium comprising the instruction of displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
[Item 69]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
User camera Receiving a request to display the user interface and
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. Displaying a camera user interface, including a second area, which is distinctly distinguished from each other.
Detecting the input corresponding to the request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 Capturing media items, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
After capturing the media item, receiving a request to display the media item and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. Displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Electronic devices, including instructions for.
[Item 70]
It ’s an electronic device,
Display device and
With one or more cameras
User Camera Means of receiving requests to display the user interface,
In response to receiving the request to display the camera user interface, and according to the determination that the respective criteria are not met.
Displaying the camera user interface via the display device.
A first region that includes a representation of the first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the second portion of the field of view of the one or more cameras is visual with the first portion. A means of displaying a camera user interface, including a second area, which is distinct.
A means of detecting an input corresponding to a request to capture media with the one or more cameras while the camera user interface is displayed.
In response to detecting the input corresponding to the request to capture the media with the one or more cameras, the visual content corresponding to the first portion of the field of view of the one or more cameras and the 1 A means of capturing a media item, including visual content corresponding to the second portion of the field of view of one or more cameras, with the one or more cameras.
A means of receiving a request to display the media item after capturing the media item, and
In response to receiving the request to display the media item, the said without displaying a representation of at least a portion of the visual content corresponding to the second portion of the field of view of the one or more cameras. A means of displaying a first representation of the visual content corresponding to the first portion of the field of view of one or more cameras.
Equipped with an electronic device.
[Item 71]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. Stopping the display of at least the first part and
Including methods.
[Item 72]
While maintaining the display of the camera user interface, stopping the display of at least the first portion of the representation of the captured media can be stopped.
71. The method of item 71, comprising maintaining the display of at least a second portion of the representation of the captured media.
[Item 73]
Prior to stopping the display of the first portion of the representation, the representation of the captured media is displayed in a first location on the display device.
While maintaining the display of the camera user interface, stopping the display of at least the first portion of the representation of the captured media can be stopped.
Including displaying an animation moving the representation of the captured media from the first location on the display device to a second location on the display device corresponding to the edge of the display device. , Item 71 or 72.
[Item 74]
The representation of the captured media is displayed in a third location on the display device, the method.
Stop displaying at least a portion of the captured media while maintaining the display of the camera user interface while the second representation of the captured media is displayed. To detect user input corresponding to the request to be made
In response to detecting the request to stop displaying at least a portion of the second representation, the second representation of the captured media while maintaining the display of the camera user interface. The method of any one of items 71-73, comprising stopping the display of at least a portion.
[Item 75]
After stopping the display of the first portion of the expression, the fourth location on the display device corresponding to the edge of the display device is different from the fourth location on the display device. Receiving user input corresponding to the movement of the second contact to the location of
In response to receiving a user input corresponding to the movement of the contact from the fourth location on the display device corresponding to the edge of the display device to the fifth location on the display device. To redisplay the first part of the expression,
The method according to any one of items 71 to 74, further comprising.
[Item 76]
Detecting user input corresponding to a request to display a magnified representation of the captured media while the representation of the captured media is being displayed.
Displaying an enlarged representation of the captured media via the display device in response to detecting a user input corresponding to the selection of the representation of the captured media.
The method according to any one of items 71 to 75, further comprising.
[Item 77]
Receiving a request to redisplay the camera user interface while the camera user interface is not displayed.
Redisplaying the camera user interface Displaying a second instance of the camera user interface, including a second representation of the captured media, in response to receiving the request.
The method according to any one of items 71 to 76, further comprising.
[Item 78]
The representation of the captured media is displayed in a fifth location on the display device, and the method further comprises.
Control a plurality of camera settings at the fifth location after stopping the display of at least the first portion of the representation of the captured media while maintaining the display of the camera user interface. The method of any one of items 71-77, comprising displaying affordances.
[Item 79]
Capturing the media corresponding to the field of view of the one or more cameras comprises capturing a sequence of images.
Displaying the representation of the captured media comprises playing at least a portion of the captured sequence of images containing at least two images.
The method according to any one of items 71 to 78.
[Item 80]
79. The method of item 79, wherein the predetermined time is based on said duration of the captured video sequence.
[Item 81]
While displaying the representation of the captured media, receiving user input corresponding to a request to display the option to share the captured media.
Displaying the option to share the captured media Displaying the user interface for sharing the captured media in response to receiving the user input corresponding to the request.
The method according to any one of items 71 to 80, further comprising.
[Item 82]
The method of any one of items 71-81, wherein the user interface sharing the requested media comprises a plurality of options for sharing the captured media.
[Item 83]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of items 71-82.
[Item 84]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 71-82. Instructions to perform the method described in
Including electronic devices.
[Item 85]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 71 to 82, and
Equipped with an electronic device.
[Item 86]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, while maintaining the display of the camera user interface, the representation of the captured media. A non-temporary computer-readable storage medium containing instructions for stopping the display of at least the first part.
[Item 87]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
Detecting a request to capture media corresponding to the field of view of one or more cameras while displaying the camera user interface.
Capturing the media corresponding to the field of view of the one or more cameras in response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, and the captured. Displaying the representation of the media and
To detect that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. Stopping the display of at least the first part and
Electronic devices, including instructions for.
[Item 88]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface includes a camera display area including a representation of the field of view of the one or more cameras. ,
Means for detecting a request to capture media corresponding to the field of view of the one or more cameras while displaying the camera user interface.
In response to detecting the request to capture the media corresponding to the field of view of the one or more cameras, the means for capturing the media corresponding to the field of view of the one or more cameras and the captured. A means of displaying the representation of the media,
Means for detecting that the representation of the captured media has been displayed for a predetermined period of time while displaying the representation of the captured media.
In response to detecting that the representation of the captured media has been displayed over the predetermined period of time, the representation of the captured media while maintaining the display of the camera user interface. A means to stop the display of at least the first part,
Equipped with an electronic device.
[Item 89]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently satisfied with, and subsequently to a second location different from the first location. Detecting the movement of the first contact and
Including methods.
[Item 90]
In response to detecting at least the first portion of the first input,
Providing a first tactile output according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least the threshold time amount. ,
89.
[Item 91]
In response to detecting at least the second part of the first input,
The second portion of the first input is captured in response to a request to capture the media according to the determination that it comprises maintaining the first contact at the first location for at least the threshold time amount. To display the visual indication of the boundary of the media.
89 or 90.
[Item 92]
While the visual indication is displayed and in response to detecting at least the third portion of the first input.
According to the determination that the third portion of the first input comprises the movement of the first contact.
After the first contact is maintained in the first place for the threshold time amount, the movement of the first contact has a first magnitude and a first direction, said first magnitude. And modifying the appearance of the visual indication based on the first direction.
91.
[Item 93]
In response to detecting at least the first portion of the first input,
The one indicated by the visual indication according to the determination that the first portion of the first input comprises maintaining the first contact at the first location for at least the threshold time amount. Displaying an animation that includes reducing the size of a portion of the representation of the field of view of the camera.
91 or 92.
[Item 94]
While the visual indication is displayed and in response to detecting at least the fourth portion of the first input.
According to the determination that the fourth portion of the first input includes the lift-off of the first contact, the size of a portion of the representation of the field of view of the one or more cameras indicated by the visual indication. Displaying animations, including augmentation,
The method according to any one of items 91 to 93, further comprising.
[Item 95]
A first portion of the representation of the field of view of the one or more cameras is shown as selected by the visual indication of the boundary of the media and said of the field of view of the one or more cameras. The second part of the representation is not shown as selected by the visual indication at the boundary of the media.
The second part is visually distinguishable from the first part.
The method according to any one of items 91 to 94.
[Item 96]
Configuring the electronic device to capture media in a second aspect ratio
The media is captured in a predetermined aspect ratio according to the movement of the first contact to the second location having the first magnitude and / or direction of movement within the first movement range. Configuring electronic devices and
According to the movement of the first contact to the second location having a second magnitude and / or direction of movement that is not within the first movement range, the size and / of movement is not predetermined and is not predetermined. Alternatively, the electronic device may be configured to capture media in a direction-based aspect ratio.
The method according to any one of items 90 to 95, comprising.
[Item 97]
96, wherein configuring the electronic device to capture media at the predetermined aspect ratio comprises generating a second tactile output via one or more tactile output devices. the method of.
[Item 98]
The electronic device is configured to capture media using the first camera mode prior to detecting the first input, and the method further comprises.
In response to detecting the first input,
A determination that the first input does not include maintaining the first contact at the first location for the threshold time amount, and the first input exceeding the first movement threshold. Including configuring the electronic device to capture media using a second camera mode different from the first camera mode according to the determination that the movement of contacts is included.
The method according to any one of items 89 to 97.
[Item 99]
The method further comprises an indication that the camera user interface is configured to operate in the first media capture mode.
According to the detection of the fourth input, including detecting the continuous movement of the fourth contact in the second direction on the camera display area.
Including displaying controls that adjust the characteristics associated with the media capture operation,
The method according to any one of items 89 to 98.
[Item 100]
In response to detecting the first input,
The location in the field of view of the camera corresponding to the first location, according to the determination that the first input comprises detecting the first contact at the first location for less than the threshold time amount. Adjusting the focus setting, including configuring the electronic device to capture the media with a content-based focus setting in.
The method according to any one of items 89 to 99, further comprising.
[Item 101]
In response to detecting the first input,
At a third location, where the first input is captured in response to the request to capture the media, which represents at least the portion of the boundary of the media and does not correspond to a predetermined portion of the camera display area. At the first exposure setting based on the content at the location in the field of view of the camera corresponding to the third location, according to the determination that it involves maintaining the first contact over a second threshold time amount. Configuring the electronic device to capture media,
The method according to any one of items 89 to 100, further comprising.
[Item 102]
After configuring the electronic device to capture media with the first exposure setting based on the content at the location in the field of view of the camera corresponding to the third location, the first. A change in the representation of the field of view of the one or more cameras that the content at the location within the field of view of the camera corresponding to three locations no longer exists within the field of view of the one or more cameras. To detect and
Continuing to configure the electronic device to capture media at the first exposure setting in response to detecting the change.
101. The method of item 101.
[Item 103]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises an instruction to perform the method according to any one of items 89 to 102.
[Item 104]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 89-102. Instructions to perform the method described in
Including electronic devices.
[Item 105]
It ’s an electronic device,
Display device and
With one or more cameras
A means for performing the method according to any one of items 89 to 102, and
Equipped with an electronic device.
[Item 106]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently met, and subsequently to a second location that is different from the first location. Includes an instruction to detect the movement of the first contact.
Non-temporary computer-readable storage medium.
[Item 107]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. To detect the first input, including the first contact, at each location of
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is to compose
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. Containing and configuring that maintaining the first contact at one location includes criteria that the first input includes and is subsequently satisfied with, and subsequently to a second location different from the first location. The command to detect the movement of the first contact,
Including electronic devices.
[Item 108]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a camera user interface via the display device, wherein the camera user interface includes a camera display area that includes a representation of the field of view of the one or more cameras. ,
On the representation of the field of view of the one or more cameras while the electronic device is configured to capture the media in a first aspect ratio in response to receiving a request to capture the media. A means of detecting a first input, including a first contact, at each location of the
In response to detecting the first input,
The electronic device so as to capture the media in a second aspect ratio different from the first aspect ratio in response to a request to capture the media according to the determination that a set of aspect ratio change criteria is met. Is a means of constructing
The set of aspect ratio change criteria corresponds to a predetermined portion of the camera display area that represents at least a portion of the boundary of the media that is captured in response to a request to capture the media for at least a threshold amount of time. A means of constructing, including a criterion that the first input is satisfied to maintain the first contact at one place, followed by a second place different from the first place. The means for detecting the movement of the first contact and
Equipped with an electronic device.
[Item 109]
It's a method
An electronic device that has a display device and a camera
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. To display a second camera user interface to capture
Including methods.
[Item 110]
Displaying media capture affordances and
Detecting the first input corresponding to the media capture affordance,
In response to detecting the first input,
Capturing the media at the first zoom level according to the determination that the first input was detected while the first camera user interface was displayed.
Capturing the media at the second zoom level according to the determination that the first input was detected while the second camera user interface was displayed.
The method of item 109, further comprising.
[Item 111]
Displaying the first camera user interface includes displaying a first representation of the field of view of the camera.
The first representation is displayed at the first zoom level and in the orientation of the first camera.
Displaying the second camera user interface includes displaying a second representation of the field of view of the camera.
The method of
[Item 112]
The first orientation is portrait orientation, the first representation is part of the field of view of the camera, the second orientation is landscape orientation, and the second representation is the entire field of view of the camera. ,
[Item 113]
Receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the camera.
In response to receiving the request to change the first zoom level to the third zoom level, the display of the first representation is replaced with a third representation of the field of view of the camera. The third expression is the orientation of the first camera and the third zoom level.
111. The method of
[Item 114]
Displaying the zoom toggle affordance while displaying the first representation of the field of view of the camera.
Detection of detecting a second input corresponding to the zoom toggle affordance selection, wherein the zoom toggle affordance selection corresponds to a request to change the first zoom level to a fourth zoom level. To do and
In response to detecting the second input, the display of the first representation is replaced with a fourth representation of the field of view of the camera, wherein the fourth representation is the first camera. In the orientation of, and at the fourth zoom level, to replace
The method according to any one of
[Item 115]
The method of item 114, wherein the zoom toggle affordance is displayed within the first camera user interface and the second camera interface.
[Item 116]
Receiving a request to change the first zoom level to a third zoom level while displaying the first representation of the field of view of the camera.
In response to receiving the request to change the first zoom level to the third zoom level,
Replacing the display of the first expression with the fifth expression of the field of view of the camera, the fifth expression being the orientation of the first camera and the fifth zoom level. To replace and
The method according to any one of
[Item 117]
The camera includes a first camera and a second camera that is different from the first camera.
The automatic zoom reference causes the electronic device to display the representation of the field of view of the first camera and the representation of the field of view of the second camera in the first camera user interface. The method of any one of items 109-116, comprising criteria that are not met.
[Item 118]
The method according to any one of items 109 to 117, wherein the automatic zoom reference includes a criterion for satisfying that the electronic device is not in video capture operation mode.
[Item 119]
The method of any one of items 109-118, wherein the automatic zoom reference comprises a criterion that the electronic device is configured to capture video of a live communication session.
[Item 120]
The first zoom level is greater than the second zoom level, and the method further comprises.
Detecting a change in the orientation of the electronic device from the second orientation to the first orientation while displaying the second camera user interface.
Displaying the first camera user interface on the display device in response to detecting the change in orientation of the electronic device from the second orientation to the first orientation. Included, the method of any one of items 109-119.
[Item 121]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device including a display device and a camera, wherein the one or more programs are items. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 109 to 120.
[Item 122]
It ’s an electronic device,
Display device and
With the camera
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 109-120. Instructions to perform the method described in
Including electronic devices.
[Item 123]
It ’s an electronic device,
Display device and
With the camera
Means for performing the method according to any one of items 109 to 120, and
Equipped with an electronic device.
[Item 124]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device including a display device and a camera, wherein the one or more programs.
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. Including instructions to display a second camera user interface to capture,
Non-temporary computer-readable storage medium.
[Item 125]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
To detect a change in the orientation of the electronic device from the first orientation to the second orientation,
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. To display a second camera user interface to capture
Electronic devices, including instructions for.
[Item 126]
It ’s an electronic device,
Display device and
With the camera
Means for displaying a first camera user interface that captures media in a first camera orientation at a first zoom level through the display device while the electronic device is in the first orientation.
A means for detecting a change in the orientation of the electronic device from the first orientation to the second orientation, and
In response to detecting the change in orientation of the electronic device from the first orientation to the second orientation,
Media in a second camera orientation at a second zoom level different from the first zoom level, according to the determination that a set of automatic zoom criteria is automatically met without user input. A means of displaying a second camera user interface to capture
Including electronic devices.
[Item 127]
It's a method
An electronic device that has a display device and one or more cameras.
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Updating the representation of the field of view of the one or more cameras based on the detected changes within.
Including methods.
[Item 128]
The variable frame rate reference includes a criterion that is satisfied when the peripheral light in the field of view of the one or more cameras falls below a threshold, and before detecting the change in the field of view of the one or more cameras. The representation of the field of view of the one or more cameras is updated at a third frame rate, and the method further comprises.
The one or more cameras at the third frame rate in response to detecting the change in the field of view of the one or more cameras and according to the determination that the variable frame rate criterion is not met. 127. The method of item 127, comprising maintaining the update of said representation of said field of view.
[Item 129]
138. The method of
[Item 130]
Displaying the media capture user interface
In accordance with the determination that the variable frame rate criterion is satisfied, the indication that the variable frame rate mode is active is displayed, and
Displaying the media capture user interface without the indication that the variable frame rate mode is active according to the determination that the variable frame rate criterion is not met.
129. The method according to any one of items 127 to 129.
[Item 131]
The representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the first frame rate is the display at the first luminance. Displayed on the device
The representation of the field of view of the one or more cameras updated based on the detected changes in the field of view of the one or more cameras at the second frame rate lower than the first frame rate. The method according to any one of items 127 to 130, which is displayed on the display device with a second brightness visually brighter than the first brightness.
[Item 132]
The method according to any one of items 127 to 131, wherein the second frame rate is based on the amount of peripheral light in the field of view of the one or more cameras being below the respective thresholds.
[Item 133]
The method of any one of items 127-132, wherein the detected change comprises a detected movement and the second frame rate is based on the amount of the detected movement.
[Item 134]
The movement criteria include criteria for satisfying that the detected change in the field-of-field of the one or more cameras corresponds to the movement of the electronic device that is greater than the movement threshold. , The method according to any one of items 127 to 133.
[Item 135]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium comprising instructions for the program to perform the method according to any one of items 127-134.
[Item 136]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 127-134. Instructions to perform the method described in
Including electronic devices.
[Item 137]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 127 to 134, and
Equipped with an electronic device.
[Item 138]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. A non-temporary computer-readable storage medium comprising an instruction to update the representation of the field of view of the one or more cameras based on the detected changes within.
[Item 139]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
To display a media capture user interface, including displaying a representation of the field of view of one or more cameras, via the display device.
Detecting changes in the field of view of the one or more cameras through the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. To update the representation of the field of view of the one or more cameras,
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Updating the representation of the field of view of the one or more cameras based on the detected changes within.
Electronic devices, including instructions for.
[Item 140]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a media capture user interface, including displaying a representation of the field of view of the one or more cameras via the display device.
Means for detecting changes in the field of view of the one or more cameras via the cameras while displaying the media capture user interface.
In response to detecting the change in the field of view of the one or more cameras, and according to the determination that the variable frame rate criterion is met.
Based on the detected changes in the field of view of the one or more cameras at the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras meet the movement criteria. , A means of updating the representation of the field of view of the one or more cameras, and
The field of view of the one or more cameras at a second frame rate lower than the first frame rate, according to the determination that the detected changes in the field of view of the one or more cameras do not meet the movement criteria. Means for updating the representation of the field of view of the one or more cameras based on the detected changes within.
Including electronic devices.
[Item 141]
It's a method
An electronic device that has a display device and one or more cameras.
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Displaying the camera user interface, including stopping displaying the control that adjusts the capture duration, according to the determination that the low light condition is not met.
Including methods.
[Item 142]
While displaying the control that adjusts the capture duration, getting an indication that the low light condition is no longer met,
In response to the acquisition of the indication, the display of the control that adjusts the capture duration is stopped via the display device.
141. The method of
[Item 143]
Obtaining an indication that a low light condition has been met while displaying the representation of the field of view of the one or more cameras without simultaneously displaying the controls that adjust the capture duration. When,
In response to the acquisition of the indication, displaying the control adjusting the capture duration at the same time as the representation of the field of view of the one or more cameras.
141 or 142.
[Item 144]
The method according to any one of
[Item 145]
The method according to any one of
[Item 146]
Displaying the camera user interface
From
[Item 147]
While displaying the control for adjusting the capture duration, displaying the first indication of the first capture duration and
The first indicator of the first capture duration in response to receiving a request to adjust the control that adjusts the capture duration from the first capture duration to the second capture duration. Replacing the display of the operation with the display of the second indication of the second capture duration,
The method of item 146, further comprising.
[Item 148]
The representation of the field of view of the one or more cameras is the first representation, and the method further comprises.
In response to receiving the request to adjust the control to adjust the capture duration from the first capture duration
Replacing the display of the first expression with the second expression of the field of view of the one or more cameras, the second expression being based on the second duration. 147. The method of
[Item 149]
Receiving a request to capture media while displaying the second indication of the second capture duration, and
The second capture duration, in response to receiving the request to capture the media, and according to the determination that the second capture duration corresponds to a predetermined deactivation of the low light capture mode. Initiating media capture through one or more of the cameras mentioned above, based on a different duration than
147 or 148.
[Item 150]
Receiving a request to capture media while displaying the second indication of the second capture duration, and
In response to receiving the request to capture the media, the capture of the media is initiated via the one or more cameras based on the second capture duration.
147 or 148.
[Item 151]
Stopping the display of the representation of the field of view of the one or more cameras in response to receiving the request to capture the media.
The method of
[Item 152]
The control for adjusting the capture duration is displayed in a first color, and the method further comprises.
150 or 151, comprising displaying the control adjusting the capture duration in a second color different from the first color in response to receiving the request to capture the media. the method of.
[Item 153]
In response to receiving the request to capture the media, display a first animation that moves the third indication of the third capture value to the second indication of the second capture duration. That and
Displaying a second animation that, after displaying the first animation, moves the second indication of the second capture duration to the third indication of the third capture value. That is, the duration of the second animation corresponds to the duration of the second capture duration and is different from the duration of the first animation.
The method according to any one of
[Item 154]
While displaying the first animation, providing a first tactile output and
While displaying the second animation, providing a second tactile output and
153. The method of
[Item 155]
After starting the capture of the media, capturing the media based on the second capture duration,
The method according to any one of
[Item 156]
The media is the first media captured based on the second capture duration, and the method further comprises.
After capturing the first media, receiving a request to capture the second media based on the second capture duration.
In response to receiving the request to capture the second media based on the second capture duration, the capture of the second media is initiated based on the second capture duration. ,
To receive a request to end the capture of the second media after starting the capture of the second media based on the second capture duration and before the second capture duration elapses. When,
In response to receiving the request to end the capture of the second media,
To end the capture of the second media based on the second capture duration,
Displaying a representation of the second media captured prior to the end is to the visual information captured by the one or more cameras prior to receiving the request to end the capture of the second media. Based on
155, the method of
[Item 157]
The media is the first media captured based on the second capture duration, and the method further comprises.
After capturing the first media, receiving a request to capture the third media based on the second capture duration.
In response to receiving the request to capture the third media based on the second capture duration, the capture of the third media is initiated based on the second capture duration. ,
After starting the capture of the third media based on the second capture duration
According to the determination that the detected changes in the field of view of the one or more cameras exceed the movement reference.
To end the capture of the third medium and
Displaying a representation of the third medium captured prior to the end is to the visual information captured by the one or more cameras prior to receiving the request to end the capture of the second media. Based on
155 or 156 of the method according to
[Item 158]
Replacing the affordance display requesting media capture with an affordance display that terminates media capture, in response to receiving the media capture request.
The method according to any one of
[Item 159]
After starting the capture of the media, displaying the first representation of the first media captured at the first capture time.
After displaying the first representation of the first media, the display of the first representation of the first media was captured at a second capture time after the first capture time. Replacing with the display of the second representation of the first medium, wherein the second representation is visually distinguishable from the first representation.
The method according to any one of
[Item 160]
159. The method of item 159, wherein replacing the display of the first expression with the display of the second expression is performed after a predetermined period of time.
[Item 161]
A low light capture status indicator indicating that the low light capture mode state is active at the same time as the control that displays the camera user interface adjusts the capture duration according to the determination that the low light condition has been met. Including displaying
The above method
Receiving the first selection of the low light state indicator while displaying the low light capture state indicator, and
In response to receiving the first selection of the low light condition indicator,
Stopping the display of the control that adjusts the capture duration while maintaining the display of the low light capture status indicator.
It comprises updating the appearance of the low light capture state indicator to indicate that the state of the low light capture mode is inactive.
The method according to any one of
[Item 162]
While displaying the camera user interface is displaying the low light capture state, which indicates that the low light capture mode is inactive, according to the determination that the low light condition has been met, the low light. Including receiving a second selection of status indicators
The above method
Redisplaying the control adjusting the capture duration in response to receiving the second selection of the low light condition indicator.
161. The method of item 161.
[Item 163]
161. The method of item 161 comprising configuring the electronic device so that it does not perform a flash operation in response to receiving the first selection of the low light capture state indicator.
[Item 164]
The method according to any one of items 161 to 163, wherein the low light condition includes a condition in which the low light condition indicator is satisfied that the low light condition indicator is selected.
[Item 165]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of
[Item 166]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of
Including electronic devices.
[Item 167]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of
Equipped with an electronic device.
[Item 168]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Non-temporary, including instructions to display the camera user interface, including to stop displaying the control that adjusts the capture duration according to the determination that the low light condition is not met. Computer-readable storage medium.
[Item 169]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Receiving a request to display the camera user interface and
Displaying the camera user interface In response to receiving the request to display the camera user interface, the camera user interface is displayed via the display device.
Displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. To display controls that adjust the capture duration to capture media in response to requests to capture media,
Displaying the camera user interface, including stopping displaying the control that adjusts the capture duration, according to the determination that the low light condition is not met.
Electronic devices, including instructions for.
[Item 170]
It ’s an electronic device,
Display device and
With one or more cameras
Means of receiving requests to display the camera user interface,
A means of displaying a camera user interface via the display device in response to receiving the request to display the camera user interface.
A means of displaying a representation of the field of view of one or more cameras via the display device.
At the same time as the representation of the field of view of the one or more cameras, according to the determination that the low light condition is satisfied, including the condition that the peripheral light in the field of view of the one or more cameras falls below their respective thresholds. A means of displaying controls that adjust the capture duration to capture media in response to requests to capture media,
A means of displaying the camera user interface, including a means of stopping displaying the control that adjusts the capture duration according to the determination that the low light condition is not met.
Equipped with an electronic device.
[Item 171]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets the low light environmental standard, the low light environmental standard is such that the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. In the camera user interface, including criteria that meet
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
Stopping displaying the low light capture status indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard.
Including methods.
[Item 172]
The flash setting is set to automatically determine whether the amount of light in the field of view of the one or more cameras meets the low light environmental standard and the flash operation is set to active or inactive. According to the determination that the flash operating criteria are met, including the criteria that are met if
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
[Item 173]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is within a first predetermined range and the flash setting is actively set.
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
According to the determination that the amount of light in the field of view of the one or more cameras is within the first predetermined range and the flash setting is not actively set.
The flash state indicator indicates that the state of the flash operation is inactive.
The low light capture indicator indicates that the state of the low light capture mode is active.
171 or 172.
[Item 174]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is in a second predetermined range different from the first predetermined range and the flash setting is set to inactive.
The flash state indicator indicates that the state of the flash operation is inactive.
The low light capture indicator indicates that the state of the low light capture mode is active.
According to the determination that the amount of light in the field of view of the one or more cameras is within the second predetermined range different from the first predetermined range and the flash setting is not set to inactive.
The flash state indicator indicates that the state of the flash operation is active.
The low light capture indicator indicates that the state of the low light capture mode is inactive.
173. The method of
[Item 175]
The flash indicator is displayed and the state of the flash operation is active, the low light capture indicator is displayed, and the state of the low light capture mode is inactive. While receiving the selection of the flash status indicator,
In response to receiving the selection of the flash status indicator
Updating the flash state indicator to indicate that the state of the flash operation is inactive.
Updating the low light capture indicator to indicate that the state of the low light capture mode is active.
The method according to any one of
[Item 176]
The flash indicator is displayed and the state of the flash operation is active, the low light capture indicator is displayed, and the state of the low light capture mode is inactive. While receiving the selection of the low light capture status indicator,
In response to receiving the selection of the low light capture status indicator,
Updating the flash state indicator to indicate that the state of the flash operation is inactive.
Updating the low light capture state indicator to indicate that the state of the low light capture mode is active.
The method according to any one of
[Item 177]
Displaying controls that adjust the capture duration according to the determination that the state in low light capture mode is active.
The method according to any one of
[Item 178]
While displaying the control for adjusting the capture duration, receiving a request to change the control from the first capture duration to the second capture duration.
In response to receiving a request to change the control from the first capture duration to the second capture duration
According to the determination that the second capture duration is a predetermined capture duration that deactivates the low light capture mode, the low light capture mode indicates that the state is inactive. Updating the capture status indicator and
177.
[Item 179]
Adjusting the capture duration While displaying the control, detecting changes in the state of the low light capture mode and
In response to detecting the change in the low light capture mode state
Stopping the display of the control that adjusts the capture duration according to the determination that the state in low light capture mode is inactive.
177.
[Item 180]
Displaying a first representation of the field of view of the one or more cameras within the camera user interface.
Receiving a request to capture the first medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving the request to capture the first media while said state of low light capture mode is active,
Starting the capture of the first media and
Maintaining the display of the first representation of the field of view of the one or more cameras for the duration of the capture of the first medium.
The method according to any one of
[Item 181]
Receiving a request to capture a second medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving the request to capture the second media while the state of the low light capture mode is active, the capture of the second media is initiated.
While capturing the second media, simultaneously displaying the representation of the second media in the camera user interface and
The method according to any one of
[Item 182]
Displaying a second representation of the field of view of the one or more cameras within the camera user interface.
Receiving a request to capture a third medium of the field of view of the one or more cameras while said state of low light capture mode is active.
In response to receiving a request to capture the third media while the state of the low light capture mode is active, the capture of the third media is initiated.
While capturing the third medium, stopping the display of the representation derived from the field of view of the one or more cameras in the camera user interface.
The method according to any one of
[Item 183]
Displaying the flash state indicator indicating the state of the flash operation in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard. ,
The method according to any one of
[Item 184]
The method according to any one of
[Item 185]
The method according to any one of
[Item 186]
While the amount of light in the field of view of the one or more cameras meets the low light environmental standard
According to the determination that the amount of light in the field of view of the one or more cameras is in a third predetermined range, the flash state indicator indicates that the state of the flash operation is available.
171 or 172, and the method according to any one of 174 to 185.
[Item 187]
The control that adjusts the capture duration is the first control, and the method further
Receiving the selection of the low light capture state indicator while the flash state indicator indicates that the state of the flash operation is available.
In response to receiving the selection of the capture low light capture status indicator
Updating the low light capture state indicator to indicate that the state of the low light capture mode is active.
186. The method of
[Item 188]
According to the determination that the peripheral light in the field of view of the one or more cameras is within the fourth predetermined range, the first low light capture state indicator is the first visual representation of the first capture duration. Including
According to the determination that the peripheral light in the field of view of the one or more cameras is not within the fourth predetermined range, the first low light capture state indicator is the first of the first capture durations. Does not include visual representation,
The method according to any one of
[Item 189]
According to the determination that the amount of light in the field of view of the one or more cameras meets the low light environmental standard in response to detecting the amount of light in the field of view of the one or more cameras.
According to the determination that the peripheral light in the field of view of the one or more cameras is within a third predetermined range, the low light capture state indicator indicates that the low light capture mode state is active. Includes a second visual representation of the first capture duration
According to the determination that the peripheral light in the field of view of the one or more cameras is within a fourth predetermined range, the low light capture state indicator indicates that the state of the low light capture mode is active. , Does not include the second visual representation of the first capture duration,
According to the determination that the ambient light in the field of view of the one or more cameras is within the fifth predetermined range, the low light capture state indicator indicates that the low light capture mode state is available. The low light capture state indicator, which indicates that the state of the low light capture mode is active, includes the second visual representation of the first capture duration, and the state of the low light capture mode. The low light capture state indicator that indicates active and does not include the second visual representation of the first capture duration, and the low light capture state indicator that the state of the low light capture mode is available. Are visually different from each other,
The method according to any one of
[Item 190]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions for performing the method according to any one of
[Item 191]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of
Including electronic devices.
[Item 192]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of
Equipped with an electronic device.
[Item 193]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
An instruction to stop displaying the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environment criteria. Non-temporary computer-readable storage media, including.
[Item 194]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device
Detecting the amount of light in the field of view of the one or more cameras via one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
Simultaneously displaying the low light capture status indicator, which indicates the status of the low light capture mode, and
An instruction to stop displaying the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard. When,
Including electronic devices.
[Item 195]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying the camera user interface via the display device,
Means for detecting the amount of light in the field of view of the one or more cameras via the one or more sensors of the electronic device while displaying the camera user interface.
In response to detecting the amount of light in the field of view of the one or more cameras,
According to the determination that the amount of light in the field of view of the one or more cameras meets a low light environment standard, including a criterion that is satisfied when the amount of light in the field of view of the one or more cameras falls below a predetermined threshold. , In the camera user interface,
A flash status indicator that shows the status of flash operation,
A means of simultaneously displaying a low light capture status indicator indicating the status of the low light capture mode, and
Means for stopping the display of the low light capture state indicator in the camera user interface according to the determination that the amount of light in the field of view of the one or more cameras does not meet the low light environmental standard.
Including electronic devices.
[Item 196]
It's a method
An electronic device that has a display device
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. Adjusting the current value of the second editable parameter according to
Including methods.
[Item 197]
The adjustable control that adjusts the first editable parameter includes a first static part and a first variable part.
The adjustable control that adjusts the second editable parameter includes the first static portion and the second variable portion.
Displaying the adjustable control that adjusts the second editable parameter at each of the locations within the media editing user interface.
Maintaining the display of the first static portion on the display device at each of the above locations within the media editing user interface.
196. The method of item 196.
[Item 198]
One or more visual features when the adjustable control that adjusts the first editable parameter and the adjustable control that adjusts the second editable parameter are adjusted to the same relative position. 196 or 197 of the method of sharing.
[Item 199]
The visual sense in response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected. Replacing the display of the representation of the media with the adjusted representation of the visual media adjusted based on the adjusted current value of the first editable parameter.
The visual sense in response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected. Replacing the display of the representation of the media with the adjusted representation of the visual media adjusted based on the adjusted current value of the second editable parameter.
The method according to any one of items 196 to 198, further comprising.
[Item 200]
The first editable parameter is an automatically adjusted editable parameter.
From item 196, adjusting the current value of the first editable parameter according to the first gesture comprises adjusting the current value of a plurality of editable parameters including the second editable parameter. The method according to any one of 199.
[Item 201]
The media edit user interface includes a plurality of editable parameter current value indicators, and the plurality of editable parameter current value indicators.
A value indicator corresponding to the second editable parameter of the representation of the visual media, and
Includes a value indicator corresponding to a third editable parameter of the representation of the visual media.
Adjusting the current values of the multiple editable parameters
Adjusting the current value of the third editable parameter and
Updating the value indicator corresponding to the second editable parameter based on the adjusted current value of the second editable parameter.
Updating the value indicator corresponding to the third editable parameter based on the adjusted current value of the third editable parameter.
200. The method of
[Item 202]
Detecting a third user input while the media editing user interface does not include a third affordance corresponding to a fourth editable parameter that edits the representation of the visual media.
In response to detecting the third user input, displaying the third affordance and
The method according to any one of items 196 to 201, further comprising.
[Item 203]
The adjustable control that adjusts the first editable parameter while displaying the adjustable control and detecting the third input. Do not emphasize visually,
202. The method of
[Item 204]
While the adjustable control for adjusting the first editable parameter is displayed, the third input is received and
Displaying the third affordance
According to the determination that the first set of criteria including the criteria that the fourth editable parameter is satisfied as the first type of parameter is met, at each of the above locations within the media editing user interface. To display an adjustable control that adjusts the fourth editable parameter.
Displaying the adjustable control that adjusts the fourth editable parameter at each of the locations within the media editing user interface according to the determination that the first set of criteria is not met. To stop and
203. The method of
[Item 205]
The item according to any one of items 196 to 204, wherein the first user input is a tap input on the first affordance, and the second user input is a tap input on the second affordance. Method.
[Item 206]
A first indicator of whether the representation of the visual media is currently being adjusted based on the first editable parameter while displaying the representation of the visual media and the first affordance. To display the editable parameter status indicator and
Detecting a fourth user input corresponding to the first affordance selection and
In response to detecting the fourth user input
According to the determination that the representation of the visual media is currently being adjusted based on the first editable parameter.
Updating the first editable parameter status indicator to indicate that the representation of the visual media is not currently adjusted based on the first editable parameter display.
Replacing the display of the representation of the visual media with a representation of the visual media that was not adjusted based on the first editable parameter.
According to the determination that the representation of the visual media is not currently adjusted based on the first editable parameter.
Updating the status indicator to indicate that the representation of the visual media is currently being adjusted based on the current value of the first editable parameter.
Replacing the display of the representation on the visual media with the representation of the visual media adjusted based on the first editable parameter.
The method according to any one of items 196 to 205, further comprising.
[Item 207]
Adjusting the current value of the first editable parameter according to the first gesture
Producing the tactile output according to the determination that the current value of the first editable parameter corresponds to a predetermined reset value for the first editable parameter.
Stopping generating the tactile output according to the determination that the current value of the first editable parameter does not correspond to the predetermined reset value for the first editable parameter.
The method according to any one of items 196 to 206, comprising:
[Item 208]
Visually adjust the first editable parameter while detecting the first gesture directed at the adjustable control to adjust the first editable parameter. To emphasize,
The method according to any one of items 196 to 207, further comprising.
[Item 209]
From item 196, a third editable parameter current value indicator visually surrounds at least a portion of the first affordance, and a fourth editable parameter current value indicator visually surrounds the second affordance. The method according to any one of 208.
[Item 210]
The electronic device includes one or more cameras
The expression of the visual medium is an expression of the one or the field of view of the camera.
The media editing user interface is displayed while the electronic device is configured to capture visual media in a first capture mode that allows the application of lighting and depth effects.
The first editable parameter is the illumination effect intensity.
The second editable parameter is the depth effect intensity.
The method according to any one of items 196 to 199 and 202 to 209.
[Item 211]
The first editable parameter corresponds to the lighting effect parameter.
The media editing user interface includes a value indicator corresponding to the lighting effect parameter.
Adjusting the current value of the first editable parameter according to the first gesture adjusts the light enable state indicator based on the adjusted current value of the first editable parameter. include,
The method according to any one of items 196 to 199 and 202 to 209.
[Item 212]
The first editable parameter is the visual filter effect intensity.
Adjusting the current value of the first editable parameter according to the first gesture
The present invention comprises replacing the representation of the visual media with a representation of the visual media adjusted based on the current value of the filter effect intensity.
The method according to any one of items 196 to 199 and 202 to 209.
[Item 213]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 196. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 212.
[Item 214]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 196-212. Instructions to perform the method described in
Including electronic devices.
[Item 215]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 196 to 212, and
Equipped with an electronic device.
[Item 216]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. A non-temporary computer-readable storage medium comprising the instruction of adjusting the current value of the second editable parameter according to the gesture of 2.
[Item 217]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
Displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
Detecting the first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. To display adjustable controls and to adjust
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. Detecting the first gesture directed at the adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. Adjusting the current value of the first editable parameter according to the gesture of 1.
Detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the locations in the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. To display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. Detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. The instruction to adjust the current value of the second editable parameter according to the gesture of 2.
Including electronic devices.
[Item 218]
It ’s an electronic device,
Display device and
On the display device
Expression of visual media and
A first affordance corresponding to a first editable parameter that edits the representation of the visual media, and
A means of displaying a media editing user interface, including a second affordance corresponding to a second editable parameter that edits the representation of the visual media.
A means of detecting a first user input corresponding to the first affordance selection while displaying the media editing user interface.
In response to detecting the first user input corresponding to the selection of the first affordance, the first editable parameter is placed on the display device at each location within the media editing user interface. A means of displaying adjustable controls and
Adjusting the First Editable Parameter Adjusting the First Editable Parameter While Displaying The Adjustable Control And While The First Editable Parameter Is Selected. A means of detecting a first gesture directed at an adjustable control,
In response to detecting the first gesture directed at the adjustable control that adjusts the first editable parameter while the first editable parameter is selected, the first. A means for adjusting the current value of the first editable parameter according to the gesture of 1.
Means for detecting a second user input corresponding to the selection of the second affordance while displaying the adjustable control for adjusting the first editable parameter on the display device.
Adjustable to adjust the second editable parameter to each of the above locations within the media editing user interface in response to detecting the second user input corresponding to the selection of the second affordance. How to display various controls
Adjusting the Second Editable Parameter Adjusting the Second Editable Parameter While Displaying The Adjustable Control And While The Second Editable Parameter Is Selected. A means of detecting a second gesture directed at an adjustable control,
In response to detecting the second gesture directed at the adjustable control that adjusts the second editable parameter while the second editable parameter is selected, the second. A means of adjusting the current value of the second editable parameter according to the gesture of 2 and
Equipped with an electronic device.
[Item 219]
It's a method
An electronic device that has a display device
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Including methods.
[Item 220]
The first user interface is
When selected, the first visual media updates the indication of the adjustable control and is based on user input to indicate the current amount of adjustment for horizontal perspective distortion of the first visual media. The first affordance, which constitutes the adjustable control so as to allow adjustment of the current adjustment amount with respect to the horizontal perspective distortion of the.
When selected, the first visual media updates the indication of the adjustable control and is based on user input to indicate the current adjustment amount for vertical perspective distortion of the first visual media. A second affordance that constitutes the adjustable control to allow adjustment of the current adjustment amount with respect to the vertical perspective distortion of the.
219. The method of item 219.
[Item 221]
To indicate the current adjustment amount to rotate the visual content in the first representation of the first visual media when selected while displaying the first affordance and the second affordance. To simultaneously display a third affordance that updates the indication of the adjustable control.
220. The method of
[Item 222]
The perspective distortion corresponds to the horizontal perspective distortion,
The amount of horizontal perspective distortion of the first representation of the first visual medium is different from the amount of horizontal perspective distortion of the second representation of the first visual media.
The method according to any one of items 219 to 221.
[Item 223]
The perspective distortion corresponds to the vertical perspective distortion,
The amount of vertical perspective distortion of the first representation of the first visual medium is different from the amount of vertical perspective distortion of the second representation of the first visual media.
The method according to any one of items 219 to 222.
[Item 224]
The first representation includes a first real-view horizon, and the method further comprises.
While the first representation of the first visual media includes the degree of rotation of the first visual media with respect to the visual boundary within the representation, the degree of rotation of the representation of the first visual media. Detecting changing inputs and
In response to detecting an input that changes the degree of rotation of the expression of the first visual medium, the expression of the first visual medium is rotated by an amount determined based on the input. ,
The method according to any one of items 219 to 223, comprising.
[Item 225]
The first representation comprises a first visual content of the first visual medium, wherein the method.
Detecting one or more sets of inputs that alter the content of the first representation while the first representation of the first visual media includes the first visual content.
In response to detecting one or more inputs of the set that alter the content of the first representation of the first visual media, the first visual content of the first visual media and the first visual content. To display a fourth representation of the first visual medium, including a second visual content of the first visual medium that is different.
219. The method according to any one of items 219 to 224.
[Item 226]
The first user interface comprises an auto-adjustment affordance, the method further comprising.
Detecting the input corresponding to the automatic adjustment affordance,
In response to detecting the input corresponding to the auto-adjustment affordance,
Automatically adjusting the current values of two or more parameters of the first visual medium selected from the group consisting of horizontal perspective distortion parameters, vertical perspective distortion parameters, and rotation parameters.
Displaying a fifth representation of the first visual medium based on the adjusted current values of the two or more adjusted parameters.
219. The method according to any one of items 219 to 225.
[Item 227]
One or more of a second set corresponding to a request to display a third user interface that is different from the first user interface while displaying the first user interface that includes the auto-tuning affordance. To detect the input of
Displaying the third user interface, including displaying a third user interface on the display device in response to detecting one or more inputs in the second set. but,
Displaying at least a portion of the visual content of the second visual medium
Displaying the auto-tuning interface according to the determination that the second visual media contains additional visual content outside a predetermined spatial boundary of the visual content.
Stopping the display of the auto-tuning interface according to the determination that the second visual media does not contain additional visual content outside a predetermined spatial boundary of the visual content.
226. The method of item 226.
[Item 228]
The first representation of the first visual media includes additional visual content that is also outside a predetermined spatial boundary of the captured visual content when the first visual media is captured. Not a representation of the first part of the visual content of the first visual medium.
The second representation of the first visual media is that of the additional visual content that is also outside a predetermined spatial boundary of the captured visual content when the first visual media is captured. Including at least a part,
The method according to any one of items 219 to 227.
[Item 229]
The first representation of the first visual medium is displayed in the first aspect ratio.
The first user interface includes aspect ratio affordances.
The above method further
Detecting the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium.
In response to detecting the user input corresponding to the aspect ratio affordance, the sixth representation of the first visual medium is displayed with a second aspect ratio different from the first aspect ratio. ,
219. The method according to any one of items 219 to 228.
[Item 230]
The first representation of the first visual medium is displayed in the first orientation.
The first aspect ratio has a first horizontal aspect value and a first vertical aspect value.
The first user interface includes aspect ratio affordances.
The above method further
Detecting the user input corresponding to the aspect ratio affordance while displaying the first representation of the first visual medium.
A third aspect different from the first aspect ratio without rotating the first representation of the first visual media in response to detecting the user input corresponding to the aspect ratio affordance. The third aspect ratio comprises displaying visual feedback indicating a portion of the first visual media corresponding to the ratio.
A second horizontal aspect ratio value equal to the first vertical aspect ratio value,
It has a second vertical aspect ratio value that is equal to the first horizontal aspect ratio value.
229. The method of item 229.
[Item 231]
Displaying the first user interface
The first visual, with one or more controls for adjusting perspective distortion, cropping, and / or rotation of the image, according to the determination that the first visual medium contains frames of a plurality of contents corresponding to different times. Including displaying adjustable controls that adjust which frame of the content corresponding to the media is displayed,
The method according to any one of items 219 to 230.
[Item 232]
A seventh representation of the first visual medium, wherein the seventh representation is around a first portion of the seventh representation that corresponds to a first time in the first visual media. The visual border is displayed,
The above method further
Adjusting which frame of content corresponding to the first visual media While displaying the adjustable control, the time-based of the first visual media corresponding to each time. Detecting the request to select a representation and
In response to detecting the request to select the time-based representation of the first visual media corresponding to each time,
Displaying an eighth representation of the first visual medium corresponding to a second time in the first visual medium.
231. The method of item 231, comprising maintaining the display of visual boundaries displayed around the first portion of the eighth representation of the first visual media.
15. The method of
[Item 233]
The first representation of the first visual medium is displayed at the first zoom level, and the method further comprises.
Detecting a request to change the zoom level of the representation of the first visual media while displaying the first representation of the first visual media.
In response to detecting the request to change the zoom level of the representation of the first visual media, the first visual media has a second zoom level different from the first zoom level. Displaying 9 expressions, including,
The method according to any one of items 219 to 232.
[Item 234]
The first representation of the first visual medium comprises perspective distortion based on the shape of the camera lens and / or the position of the camera.
The second representation of the first visual medium is adjusted to reduce the perspective distortion based on the shape of the camera lens and / or the position of the camera.
The method according to any one of items 219 to 233.
[Item 235]
The adjustable control corresponds to the control that corrects perspective distortion.
The above method further
A amount of correction for perspective distortion according to the direction and / or magnitude of the gesture directed at the adjustable control in response to detecting the user input containing the gesture directed at the adjustable control. Including updating,
The method according to any one of items 219 to 234.
[Item 236]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 219. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 235.
[Item 237]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 219 to 235. An electronic device that includes instructions to perform the method described in.
[Item 238]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 219 to 235, and
Equipped with an electronic device.
[Item 239]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
A non-temporary computer-readable storage medium that contains instructions for.
[Item 240]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
On the display device
The first expression of the first visual medium and
Displaying a first user interface that includes simultaneously displaying an adjustable control that includes an indication of the current adjustment amount for perspective distortion of the first visual medium.
Detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
Displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Electronic devices, including instructions for.
[Item 241]
It ’s an electronic device,
Display device and
On the display device
The first expression of the first visual medium and
A means of displaying a first user interface, including displaying at the same time an adjustable control that includes an indication of the current amount of adjustment for perspective distortion of the first visual medium.
Means for detecting user input, including gestures directed at the adjustable control, while displaying the first user interface on the display device.
In response to detecting the user input containing the gesture directed at the adjustable control,
A means for displaying a second representation of the first visual medium on the display device with each adjustment amount for the perspective distortion selected based on the magnitude of the gesture.
Equipped with an electronic device.
[Item 242]
It's a method
An electronic device that has a display device
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
Displaying a control that adjusts the capture duration of capturing media while the low light camera mode is active, including displaying said control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including methods.
[Item 243]
Receiving the single request to capture the image corresponding to the field of view of the one or more cameras.
In response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras.
According to the determination that the electronic device is configured to capture the first plurality of images over the first capture duration, the first plurality of images are captured over the first capture duration. That and
According to the determination that the electronic device is configured to capture the second plurality of images over the second capture duration, the second plurality of images are captured over the second capture duration. That and
242.
[Item 244]
243. The method of item 243, wherein the amount of images in the first plurality of images is different from the amount of images in the second plurality of images.
[Item 245]
Capturing the first plurality of images in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and over the first capture duration. To generate a first composite image containing at least some content of the first plurality of images in accordance with the determination that the electronic device is configured as described above.
Capture the second plurality of images in response to receiving the single request to capture the image corresponding to the field of view of the one or more cameras and over the second capture duration. To generate a second composite image containing at least some content of the second plurality of images in accordance with the determination that the electronic device is configured as described above.
243 or 244 of the method, further comprising.
[Item 246]
To detect the first stability of the electronic device while the control is displaying the indication that it is set to the first capture duration.
In response to detecting the first stability of the electronic device,
According to the determination that the first stability of the electronic device exceeds the first stability threshold.
Displaying an indication that the control is set to a third capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a third plurality of images over the third capture duration. To configure and
The method according to any one of items 242 to 245, further comprising.
[Item 247]
While the low light camera mode is active, the state of the low light capture mode is shown and
According to the determination that the capture duration display criteria are met, the visual representation of the first capture duration is included.
Displaying a first low light capture status indicator that does not include the visual representation of the first capture duration according to the determination that the duration display criteria are not met.
The method according to any one of items 242 to 246, further comprising.
[Item 248]
247. The method of item 247, wherein the capture duration display criteria includes criteria for satisfying that the ambient light in the field of view of the one or more cameras is within a first predetermined range.
[Item 249]
Before the low light camera mode is active
According to the determination that the peripheral light in the field of view of the one or more cameras is within the second predetermined range, it indicates that the state of the low light capture mode is active, and the visual sense of the third capture duration. Displaying a second low light capture status indicator that includes a representation,
According to the determination that the peripheral light in the field of view of the one or more cameras is within the fourth predetermined range, the state of the low light capture mode is shown to be active and the third capture duration. Displaying a third low light capture status indicator that does not include the visual representation,
A fourth low light capture state indicator indicating that the low light capture mode state is available according to the determination that the ambient light in the field of view of the one or more cameras is within a fifth predetermined range. The second low-light capture state indicator, the third low-light capture state indicator, and the fourth low-light capture state indicator are visually different from each other. That and
According to the determination that the peripheral light in the field of view of the one or more cameras is within the sixth predetermined range, the second low light capture state indicator, the third low light capture state indicator, and the above. Stop displaying the 4th low light capture status indicator,
The method according to any one of items 242 to 248, further comprising.
[Item 250]
The control that adjusts the capture duration to capture the media
The first state corresponding to the first recommended capture duration value, and
A second state corresponding to the second recommended capture duration value, and
It is configured to be adjustable with a third state, which corresponds to a third recommended capture duration value.
The method according to any one of items 242 to 249.
[Item 251]
To display the control that adjusts the capture duration to capture the media
Displaying the control that adjusts the capture duration to capture the media adjusted to the second state according to the determination of a set of first capture duration criteria, the first capture duration. The time is the second recommended capture duration value, to display and
Displaying the control that adjusts the capture duration to capture the media adjusted to the second state according to the determination of a set of second capture duration criteria, the second capture duration. The time is the second recommended capture duration value, to display and
250. The method of item 250.
[Item 252]
To display the control that adjusts the capture duration to capture the media
According to the determination that the control for adjusting the capture duration for capturing the media is in the third state, and the determination that the first set of capture duration criteria is met, the third The recommended capture duration value of is the third capture duration value,
According to the determination that the control for adjusting the capture duration for capturing the media is in the third state, and the determination that the set of second capture duration criteria is met, the third The recommended capture duration value of is a fourth capture duration value different from the third capture duration value.
The method according to item 250 or 251.
[Item 253]
The second capture duration value is the fifth capture duration value, the third recommended capture duration value is the sixth capture value, and the method further comprises.
To detect the first change in the current conditions of the electronic device while viewing the control that adjusts the capture duration to capture the media.
In response to detecting the first change in the current conditions of the electronic device,
According to the determination that the first current condition meets the third capture duration criterion.
From the second recommended capture duration value to the seventh capture duration, which is different from the seventh capture duration.
Changing at least one of the eighth capture duration from the third recommended capture duration value, which is different from the sixth capture duration, and the eighth capture duration.
The method according to any one of items 250 to 252, comprising.
[Item 254]
The first set of capture duration criteria is
Peripheral light detected in the field of view of the one or more cameras,
With the movement detected in the field of view of the one or more cameras,
A second stability of the electronic device and a criterion based on one or more parameters selected from the group consisting of:
The method according to any one of items 250 to 253, comprising.
[Item 255]
Displaying the media capture user interface comprises displaying the affordance to capture the media at the same time as the representation of the field of view of the one or more cameras.
A first, including the selection of the affordance to capture the media, while displaying the affordance to capture the media and displaying the indication that the control is set to a third capture duration. To detect the input, the selection of the affordance to capture the media corresponds to the single request to capture the image corresponding to the field of view of the one or more cameras.
In response to detecting the first input corresponding to the affordance that captures the media, the capture of the fourth plurality of images is initiated over the first capture duration.
The method according to any one of items 250 to 254, comprising.
[Item 256]
The indication that the control is set to the third capture duration is the first indication.
The first indication is displayed at the first position on the control corresponding to the third capture duration.
The above method further
In response to detecting the first input corresponding to the affordance that captures the media, the first indication from the first position on the control to the second position on the control. Displaying moving animations and
Redisplaying the first indication at the first position on the control in response to displaying the first indication at the second position.
255. The method of item 255.
[Item 257]
The indication that the control is set to the third capture duration is the second indication.
The second indication appears at a third position on the control that corresponds to the third capture duration.
The above method further
In response to detecting the first input corresponding to the affordance that captures the media,
Displaying an animation that moves the second indication from the third position on the control to the fourth position on the control.
Detecting a second change in the current conditions of the electronic device while displaying the animation,
In response to detecting a second change in the above conditions
According to the determination that the second current condition meets the fourth capture duration criterion, and in response to displaying the first indication at the fourth position, the third capture duration and To display the second indication at a fifth position on the control corresponding to a different fourth capture duration.
256. The method of item 256.
[Item 258]
To change the visual appearance of the affordance that captures the media in response to detecting the first input corresponding to the affordance that captures the media.
The method according to any one of items 255 to 257, further comprising.
[Item 259]
In response to the detection of the first input corresponding to the affordance that captures the media, the display of the affordance that captures the media is visually different from that of the affordance that captures the media. Replace with an affordance display to end the capture,
25. The method of any one of items 255-258, further comprising.
[Item 260]
In response to detecting the first input corresponding to the affordance to capture the media, the pause of the electronic device when the capture of the media is started via the display device and the pose of the media. Displaying a visual indication of the difference between the pose of the electronic device at the first time after initiating the capture.
The method according to any one of items 255 to 259, further comprising.
[Item 261]
After starting the capture of the first plurality of images over the first capture duration and before detecting the end of the capture of the first plurality of images over the first capture duration.
Displaying one or more low light mode animations according to the determination that the first capture duration exceeds the threshold.
To stop displaying the one or more low light mode animations according to the determination that the first capture duration does not exceed the threshold.
255. The method of item 255.
[Item 262]
While capturing the media
From a plurality of images captured by the one or more cameras prior to the first time in a first time after initiating the capture of the first plurality of images over the first capture duration. To display a representation of a third composite image based on at least some of the content of
From a plurality of images captured by the one or more cameras prior to the second time in a second time after initiating the capture of the first plurality of images over the first capture duration. Including displaying a fourth composite image representation based on at least some of the content of
The first time is different from the second time
The representation of the third composite image is visually distinguishable from the representation of the fourth composite image.
The method according to any one of items 242 to 261, further comprising.
[Item 263]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are from item 242. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 262.
[Item 264]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 242 to 262. An electronic device that includes instructions to perform the method described in.
[Item 265]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 242 to 262, and
Equipped with an electronic device.
[Item 266]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. A non-temporary computer-readable storage medium, including, to configure.
[Item 267]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 268]
It ’s an electronic device,
Display device and
Through the display device
A means of displaying a media capture user interface, including means of displaying a representation of the field of view of one or more cameras.
Displaying the control comprises means of displaying a control for adjusting the capture duration of capturing the media while the low light camera mode is active.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 269]
It's a method
An electronic device that has a display device and one or more cameras.
To display a media capture user interface that includes a representation of the field of view of one or more cameras through the display device.
Receiving a request to capture media while viewing the media capture user interface through the display device.
In response to receiving the request to capture the media, initiating the capture of the media through the one or more cameras.
At the first time after starting the capture of media through the one or more cameras.
Pause of the electronic device when capture of the media is initiated through the display device according to the determination that a set of guidance criteria is met, including criteria that the low light mode is satisfied as active. And to display a visual indication of the difference from the pose of the electronic device at the first time after starting the capture of the media.
Including methods.
[Item 270]
269. The method of item 269, wherein the set of guidance criteria is satisfied that the electronic device is configured to capture a plurality of images over a first capture duration that exceeds a threshold duration.
[Item 271]
The visual indication
One or more shapes of the first set representing the pose of the electronic device when the capture of the media is started, and one or more shapes of the first set are the media capture. A first set of one or more shapes, displayed in a first position on the user interface.
One or more shapes of a second set representing the pose of the electronic device at the first time after the start of media capture, wherein the one or more shapes of the second set. Includes a set of shapes, including one or more shapes of a second set, displayed in a second position.
The method according to any one of items 269 to 270.
[Item 272]
One or more of the first set of shapes comprises a first color.
One or more of the second set of shapes comprises a second color that is different from the first color.
The method according to item 271.
[Item 273]
Detecting a change in the pose of the electronic device at a second time after the start of capture
In response to detecting the change in the pose of the electronic device, the second one is placed in a third position on the media camera user interface that is different from the second position on the media camera user interface. Displaying one or more shapes in a set and
271 or 272.
[Item 274]
In response to detecting the change in the pose of the electronic device,
The difference between the first position of one or more shapes of the first set and the third position of one or more shapes of the second set is within the first threshold difference. To stop at least one of the first set of one or more shapes or the second set of one or more shapes according to the determination that
The difference between the first position of one or more shapes of the first set and the third position of one or more shapes of the second set is within the first threshold difference. Maintaining the display of one or more shapes of the first set or one or more shapes of the second set according to the determination that the value is not present.
27. The method of any one of items 271 to 273, further comprising.
[Item 275]
Detecting a change in the pose of the electronic device at a second time after the start of capture
In response to detecting the change in the pose of the electronic device,
The difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the second time after the capture of the media is started is the second threshold difference. To generate a tactile output according to the determination that it is inside,
The difference between the pose of the electronic device when the capture of the media is started and the pose of the electronic device at the second time after the capture of the media is started is within the second threshold difference. To stop generating the tactile output according to the judgment that it is not
The method according to any one of items 269 to 274, further comprising.
[Item 276]
According to the judgment that one set of guidance criteria is met
Displaying the representation corresponding to the request to stabilize the electronic device while capturing the media,
269. The method according to any one of items 269 to 275.
[Item 277]
Stop displaying the visual indication of the difference through the display device according to the determination that the set of guidance criteria is not met.
269. The method according to any one of items 269 to 276.
[Item 278]
The visual indication is displayed at the first time, and the method further comprises.
To detect the end of the capture of the media at a third time different from the first time.
To stop displaying the visual indication via the display device in response to detecting the end of the capture of the media.
269. The method according to any one of items 269 to 277.
[Item 279]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are described in item 269. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 278.
[Item 280]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 269 to 278. An electronic device that includes instructions to perform the method described in.
[Item 281]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 269 to 278, and
Equipped with an electronic device.
[Item 282]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Non-temporary computer-readable storage media, including.
[Item 283]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device
Displaying a media capture user interface that includes displaying a representation of the field of view of one or more cameras.
While the low light camera mode is active, displaying the control that adjusts the capture duration to capture the media, including the instruction to display the control.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that the second set of capture duration criteria different from the first set of capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 284]
It ’s an electronic device,
Display device and
Through the display device
A means of displaying a media capture user interface, including means of displaying a representation of the field of view of one or more cameras.
Displaying the control comprises means of displaying a control for adjusting the capture duration of capturing the media while the low light camera mode is active.
According to the determination that a set of first capture duration criteria is met
Displaying an indication that the control is set to the first capture duration,
Configuring the electronic device to capture a first plurality of images over the first capture duration in response to a single request to capture an image corresponding to the field of view of the one or more cameras. When,
According to the determination that a set of second capture duration criteria different from the set of first capture duration criteria is met.
Displaying an indication that the control is set to a second capture duration that is longer than the first capture duration.
In response to the single request to capture the image corresponding to the field of view of the one or more cameras, the electronic device is configured to capture a second plurality of images over the second capture duration. To configure and
Including electronic devices.
[Item 285]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Displaying the camera user interface, including two areas,
Including methods.
[Item 286]
285. The method of item 285, wherein the second region comprises a plurality of control affordances that control a plurality of camera settings.
[Item 287]
The electronic device is configured to focus on each of the first objects in the field of view of the one or more cameras, and the method further comprises.
Receiving a first request to adjust the focus setting of the electronic device while displaying the second portion of the field of view of the one or more cameras with the first visual appearance.
The electronic device so as to focus on each of the second objects in the field of view of the one or more cameras in response to receiving the first request to adjust the focus setting of the electronic device. And to configure
While the electronic device is configured to focus on each of the second objects in the field of view of the one or more cameras.
Each set of third criteria comprises a criterion in which each of the second objects in the field of view of the one or more cameras is satisfied to be a third distance from the one or more cameras. According to the determination that the condition is satisfied, the display of the second portion of the field of view of the one or more cameras in the second area with the first visual appearance is stopped.
285 or 286 of the method according to item 285 or 286.
[Item 288]
While displaying the second portion of the field of view of the one or more cameras with the first visual appearance, the first objects and the first objects in the field of view of the one or more cameras. Detecting the first change in distance between one or more cameras,
In response to detecting the first change in the distance between each of the first objects in the field of view of the one or more cameras and the one or more cameras.
Each set of fourth criteria is met, including a criterion that each of the first objects in the field of view of the one or more cameras is met at a fourth distance from the one or more cameras. According to the determination that the camera has been used, the display of the second portion of the field of view of the one or more cameras in the second area with the first visual appearance is stopped.
The method according to any one of items 285 to 287, further comprising.
[Item 289]
It is possible to stop displaying the second portion of the field of view of the one or more cameras in the second area with the first visual appearance.
Stopping the display of at least some of the third portion of the field of view of the one or more cameras previously displayed in the second area within the second area.
285. The method according to any one of items 285 to 288.
[Item 290]
Stopping the display of the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is a first superimposed on the second region. The method according to any one of items 285 to 289, which comprises increasing the opacity of the blackening layer of the above.
[Item 291]
The electronic device is configured to focus on each of the first objects in the field of view of the one or more cameras, and the method further comprises.
Receiving a second request to adjust the focus setting of the electronic device while not displaying the second portion of the field of view of the one or more cameras in the first visual appearance.
The electronic device so as to focus on each of the third objects in the field of view of the one or more cameras in response to receiving the second request to adjust the focus setting of the electronic device. And to configure
While the electronic device is configured to focus on each of the third objects in the field of view of the one or more cameras.
A set of fifth criteria is met, including a criterion in which each of the third objects in the field of view of the one or more cameras is satisfied to be a fifth distance from the one or more cameras. The second portion of the field of view of the one or more cameras is displayed in the second area in the first visual appearance according to the determination that the camera has been used.
285. The method according to any one of items 285 to 290.
[Item 292]
While the second portion of the field of view of the one or more cameras is not displayed in the first visual appearance, the first objects and the first objects in the field of view of the one or more cameras. Detecting a second change in distance between one or more cameras,
In response to detecting the second change in the distance between the first object in the field of view of the one or more cameras and the one or more cameras.
Each of the sixth criteria in the set includes a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a sixth distance from the one or more cameras. According to the determination that the condition is satisfied, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
The method according to any one of items 285 to 291, further comprising.
[Item 293]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is in the second region, in the second region. 285. The method of any one of items 285 to 292, comprising displaying a fourth portion of the field of view of the one or more cameras that was not previously displayed.
[Item 294]
Displaying the second portion of the field of view of the one or more cameras in the second region with the first visual appearance is a second blackening superimposed on the second region. 285. The method of any one of items 285-293, comprising reducing said opacity of the layer.
[Item 295]
The first visual appearance may include a first visual prominence to display the second portion of the field of view of the one or more cameras with the first visual appearance.
The second visual appearance comprises displaying an animation that gradually transitions the second portion of the field of view of the one or more cameras from the second visual appearance to the first visual appearance. It has a second visual prominence that is different from the first visual prominence,
The method according to any one of items 285 to 294.
[Item 296]
The first portion is displayed with a third visual appearance that is different from the first visual appearance.
The above method further
Showing that the first portion is displayed in the third visual appearance and that the second portion of the field of view of the one or more cameras is displayed in the first visual appearance. While receiving a request to capture the media,
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the field of view of the one or more cameras. Capturing media, including content from the first portion and content from the second portion of the field of view of the one or more cameras.
After capturing the media corresponding to the field of view of the one or more cameras, the content from the first portion of the field of view of the one or more cameras and the first of the field of view of the one or more cameras. Displaying the representation of the media, including the content from
285. The method of item 285.
[Item 297]
The method according to any one of items 285 to 296, wherein at least the first portion of the second region is above the first region.
[Item 298]
The method according to any one of items 285 to 297, wherein at least a second portion of the second region is below the second region.
[Item 299]
Receiving input at a location on the camera user interface
In response to receiving the input at the location on the camera user interface,
To configure the electronic device to focus on the location of the input according to the determination that the location of the input is within the first region.
Discontinuing the configuration of the electronic device to focus on the location of the input according to the determination that the location of the input is within the second region.
The method according to any one of items 285 to 298, further comprising.
[Item 300]
The method according to any one of items 285 to 299, wherein the second region is visually distinguished from the first region when displayed in the first appearance.
[Item 301]
Items 285 to 300, wherein each of the first set of criteria includes criteria for satisfying that each of the first objects is the closest object identified in the field of view of the one or more cameras. The method according to any one of the above.
[Item 302]
One of items 285 to 301, wherein each of the first set of criteria includes criteria for satisfying that each of the first objects is at a focal point in the field of view of the one or more cameras. The method described in
[Item 303]
The first region is separated from the second region by a boundary.
In any one of items 285 to 302, wherein each of the first set of criteria comprises a criterion that is met when the detected visual tear adjacent to the boundary is above the threshold level of visual tear. The method described.
[Item 304]
Each of the first set of criteria includes criteria for satisfying that the first portion of the field of view of the one or more cameras is part of the field of view of the first camera.
Item 285-303, wherein each of the second set of criteria comprises criteria for satisfying that the second portion of the field of view of the one or more cameras is part of the field of view of the second camera. The method described in any one of the paragraphs.
[Item 305]
Receiving a request to capture media while displaying the second portion of the field of view of the one or more cameras with a first visual appearance.
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the field of view of the one or more cameras. Capturing media, including content from the first portion and content from the second portion of the field of view of the one or more cameras.
After capturing the media, receiving a request to edit the captured media,
In response to receiving the request to edit the captured media, at least some of the content from the first portion of the field of view of the one or more cameras and the one or more cameras. Displaying a representation of the captured media, including at least some of the content from said second portion of said field of view.
The method according to any one of items 285 to 304, further comprising.
[Item 306]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program contains instructions for performing the method according to any one of items 285 to 305.
[Item 307]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 285 to 305. Instructions to perform the method described in
Including electronic devices.
[Item 308]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 285 to 305, and
Equipped with an electronic device.
[Item 309]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Includes instructions to display the camera user interface, including two areas,
Non-temporary computer-readable storage medium.
[Item 310]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Instructions to display the camera user interface, including two areas,
Including electronic devices.
[Item 311]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A first region containing a first representation of a first portion of the field of view of one or more cameras.
A second region that is outside the first region and is visually distinguishable from the first region.
A set of first respective criteria is met, including a criterion in which each first object in the field of view of the one or more cameras is satisfied with a first distance from the one or more cameras. In accordance with the determination that the camera has, the second portion of the field of view of the one or more cameras is displayed in the second area with the first visual appearance.
A set of second respective criteria is met, including a criterion in which each of the first objects in the field of view of the one or more cameras is satisfied to be a second distance from the one or more cameras. The second region includes, according to the determination, to stop displaying the second portion of the field of view of the one or more cameras in the first visual appearance. Means for displaying the camera user interface, including two areas,
Equipped with an electronic device.
[Item 312]
It's a method
An electronic device having a display device, a first camera having a field of view, and a second camera having a field of view wider than the field of view of the first camera.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. Displaying the representation of the second part of the field of view of the camera
Including methods.
[Item 313]
The method of item 312, wherein the first portion of the field of view of the second camera is different from the second portion of the field of view of the second camera.
[Item 314]
In the first region, at the second zoom level, the representation of the second portion of the field of view of the first camera is displayed, and in the second region, the second zoom level. In, while displaying the representation of the second portion of the field of view of the second camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is set to a third. Receiving a second request to raise to the zoom level and
In response to receiving the second request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the third zoom level.
According to the determination that the third zoom level is within the first zoom value range.
Displaying a representation of a third portion of the field of view of the first camera at the third zoom level in the first region.
In the second region, at the third zoom level, displaying the representation of the fourth portion of the field of view of the first camera.
The method of item 312 or 313, further comprising.
[Item 315]
In the first region, at the third zoom level, the representation of the third portion of the field of view of the first camera is displayed, and in the second region, the third zoom level. In, while displaying the representation of the fourth portion of the field of view of the first camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is set to a fourth. Receiving a third request to raise to the zoom level and
In response to receiving the third request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the fourth zoom level.
According to the determination that the fourth zoom level is within the second zoom value range,
In the first region, at the fourth zoom level, the representation of the fifth part of the field of view of the third camera excluding at least one subset of the third part of the field of view of the third camera. To display and
In the second region, the second without displaying a representation of the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. At the fourth zoom level, the first overlaps with the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. Displaying the representation of the fifth part of the field of view of the camera and
314. The method of item 314.
[Item 316]
In the first region, at the fourth zoom level, the fourth fifth of the field of view of the third camera excludes at least one subset of the third portion of the field of view of the third camera. The representation of the portion is displayed and, in the second region, the representation of the subset of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera. In the second region, at the fourth zoom level, the portion of the field of view of the third camera excluded from the fifth portion of the field of view of the third camera without display. While displaying the representation of the fifth and fourth portion of the field of view of the first camera that overlaps the subset, the zoom level of the representation of the portion of the field of view of the one or more cameras. Receiving a fourth request to raise to a fifth zoom level and
In response to receiving the fourth request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to the fifth zoom level.
According to the determination that the fifth zoom level is within the third zoom value range,
In the first region, at the fifth zoom level, the representation of the sixth portion of the field of view of the third camera is displayed.
In the second region, at the fifth zoom level, displaying the representation of the seventh portion of the field of view of the third camera.
315. The method of item 315.
[Item 317]
In the first region, at the fifth zoom level, the representation of the sixth portion of the field of view of the third camera is displayed, and in the second region, at the fifth zoom level. While displaying the representation of the seventh portion of the field of view of the third camera, the zoom level of the representation of the portion of the field of view of the one or more cameras is lowered to the sixth zoom level. Receiving the first request and
In response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the sixth zoom level.
According to the determination that the sixth zoom level is within the fourth zoom value range so as to be displayed within the second region.
In the first region, at the sixth zoom level, the eighth portion of the field of view of the third camera excluding at least one subset of the third portion of the field of view of the third camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera. At the sixth zoom level, the first overlaps with the subset of the field of view of the third camera excluded from the eighth portion of the field of view of the third camera. Displaying the representation of the eighth part of the field of view of the camera
316. The method of item 316.
[Item 318]
The field of view of the first camera at the sixth zoom level in the first region without displaying a representation of at least one of the subsets of the eighth portion of the field of view of the first camera. Represents an eighth portion of the field of view of the third camera that overlaps at least one subset of the eighth portion of the third camera, and in the second region, at the sixth zoom level, said the third. Of the one or more cameras while displaying a representation of the eighth portion of the field of view of the first camera excluding at least one said subset of the eighth portion of the field of view of one camera. Receiving a second request to reduce the zoom level of the representation of the portion of the field of view to a seventh zoom level.
In response to receiving the first request to reduce the zoom level of the representation of the portion of the field of view of the one or more cameras to the seventh zoom level.
According to the determination that the seventh zoom level is within the fifth zoom value range,
In the first region, at the seventh zoom level, displaying the representation of the first ninth portion of the field of view of the first camera.
In the second region, at the seventh zoom level, displaying the representation of the tenth portion of the field of view of the first camera.
317. The method of item 317.
[Item 319]
The method of any one of items 312-319, wherein the second region comprises a plurality of control affordances for controlling a plurality of camera settings.
[Item 320]
Receiving input at a location on the camera user interface
In response to receiving the input at the location on the camera user interface,
To configure the electronic device to focus on the location of the input according to the determination that the location of the input is within the first region.
Discontinuing the configuration of the electronic device to focus on the location of the input according to the determination that the location of the input is within the second region.
The method according to any one of items 312 to 320, further comprising.
[Item 321]
A request to capture media while displaying the camera user interface that includes the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. To receive and
Capturing Media In response to receiving the request, the media captures the media corresponding to the field of view of the one or more cameras, wherein the media is the first at the first zoom level. Capturing media, including content from the first portion of the field of view of one camera and content from the first portion of the field of view of the second camera at the first zoom level. ,
After capturing the media, receiving a request to edit the captured media,
At least some of the content from the first portion of the field of view of the first camera at the first zoom level in response to receiving the request to edit the captured media. And to display a representation of the captured media, including at least some of the content from the first portion of the field of view of the second camera at the first zoom level.
312. The method of item 312, further comprising.
[Item 322]
It is configured to be performed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than said field of view of the first camera. A non-temporary computer-readable storage medium that stores one or more programs, wherein the one or more programs include instructions for performing the method according to any one of items 312 to 321. Temporary computer-readable storage medium.
[Item 323]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 312 to 321. An electronic device that includes instructions to perform the method described in.
[Item 324]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
again,
Means for performing the method according to any one of items 312 to 321 and
Equipped with an electronic device.
[Item 325]
Configured to be executed by one or more processors of an electronic device comprising a display device, a first camera having a field of view, and a second camera having a field of view wider than said field of view of the first camera. A non-temporary computer-readable storage medium that stores one or more of these programs.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. The command to display the representation of the second part of the field of view of the camera,
Non-temporary computer-readable storage media, including.
[Item 326]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device, the camera user interface is to display a camera user interface that includes a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
Displaying a camera user interface that includes, at the first zoom level, a second region that includes a representation of the first portion of the field of view of the second camera.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. Receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. The command to display the representation of the second part of the field of view of the camera,
Including electronic devices.
[Item 327]
It ’s an electronic device,
Display device and
The first camera with a field of view,
A second camera having a field of view wider than the field of view of the first camera,
With one or more cameras
A means of displaying a camera user interface, including a representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, via the display device.
A first region containing a representation of the first portion of the field of view of the first camera at the first zoom level.
A means of displaying a camera user interface, including a second region comprising a representation of a first portion of the field of view of the second camera at the first zoom level.
The one or more while displaying the camera user interface including the representation of at least a portion of the field of view of the one or more cameras displayed at the first zoom level through the display device. A means of receiving a first request to raise the zoom level of the representation of the portion of the field of view of the camera to a second zoom level.
In response to receiving the first request to raise the zoom level of the representation of the portion of the field of view of the one or more cameras to a second zoom level.
In the first region, at the second zoom level, the second portion of the field of view of the first camera excluding at least one subset of the first portion of the field of view of the first camera. Means of displaying expressions and
In the second region, the second without displaying a representation of the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. At the second zoom level, the second overlaps with the subset of the field of view of the first camera excluded from the second portion of the field of view of the first camera. Means for displaying the representation of the second part of the field of view of the camera,
Equipped with an electronic device.
[Item 328]
It's a method
An electronic device that has a display device and one or more cameras.
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. To display a third representation of at least a portion of the camera's field of view,
Including methods.
[Item 329]
According to the determination that the first gesture is the gesture directed to the first zoom affordance, the visual characteristics of the second zoom affordance are maintained and the visual characteristics of the first zoom affordance are changed. That and
According to the determination that the first gesture is the gesture directed to the second zoom affordance, the visual characteristic of the first zoom affordance is maintained and the visual characteristic of the second zoom affordance is changed. To change and
328. The method of item 328.
[Item 330]
Changing the visual characteristics of the first zoom affordance can
The size of the first zoom affordance is changed from the first size to the second size, and the second size of the first zoom affordance is the current size of the second zoom affordance. Different from, changing and
By changing the color of the first zoom affordance from the first color to the second color, the second color of the first zoom affordance is the current color of the second zoom affordance. Different from, including one or more of the changes,
329. The method of item 329.
[Item 331]
A second gesture directed to the first zoom affordance while displaying the second representation of at least the portion of the field of view of the one or more cameras at the second zoom level. To receive and
In response to receiving the second gesture directed at the first zoom affordance,
Displaying a fourth representation of at least a portion of the field of view of the one or more cameras at a fourth zoom level, according to the determination that the first zoom affordance meets each of the first criteria. According to the determination that the zoom affordance of 1 meets each of the second criteria.
Stopping displaying the fourth representation of at least the portion of the field of view of the one or more cameras at the fourth zoom level.
Maintaining the display of the second representation of the portion of the field of view of the one or more cameras at the second zoom level.
The method according to any one of items 328 to 330, further comprising.
[Item 332]
The first gesture is a first type of gesture, and the method further comprises.
Receiving a third gesture directed to the first zoom affordance, wherein the third gesture is a second type of gesture different from the first type of gesture. That and
Displaying a control that changes the zoom level of the first currently displayed representation in response to receiving the third gesture directed to the first zoom affordance. Displaying that the control that changes the zoom level of the first currently displayed representation includes a first indication of the current zoom level of the first currently displayed representation.
Receiving a fourth gesture directed at the control that changes the zoom level while displaying the control that changes the zoom level of the first currently displayed representation.
In response to receiving the fourth gesture directed at the control that changes the zoom level,
Displaying a second indication of the fifth zoom level on the control that changes the zoom level, and
Displaying a fourth representation of the field of view of the one or more cameras at the fifth zoom level.
328. The method according to any one of items 328 to 331.
[Item 333]
The first indication of the zoom level of the first currently displayed representation to the selected zoom level on the control that modifies the zoom level of the first currently displayed representation. 332. The method of item 332, which is displayed at the corresponding position.
[Item 334]
332. The method of item 332 or 333, wherein the control that changes the zoom level of the first currently displayed representation is a rotatable user interface element.
[Item 335]
Displaying the control that changes the zoom level of the first currently displayed representation changes the display of the plurality of zoom affordances and the zoom level of the first currently displayed representation. 332-334. The method of any one of items 332 to 334, comprising substituting the indication of said control.
[Item 336]
The third gesture includes movement in the first direction.
The fourth gesture involves moving in a second direction different from the first direction.
The method according to any one of items 332 to 335.
[Item 337]
Detecting the lift-off of the fourth gesture after receiving the fourth gesture directed at the control that changes the zoom level.
After detecting the lift-off of the fourth gesture,
Stopping the display of the control that changes the zoom level according to the determination that there is no gesture directed to the control that changes the zoom level within a predetermined time frame.
The method according to any one of items 332 to 336, further comprising.
[Item 338]
Displaying the control that changes the zoom level of the first currently displayed representation
Each of the plurality of zoom levels corresponding to the zoom affordance is represented by a different corresponding visual indicator of the plurality of visual indicators, including displaying a plurality of visual indicators simultaneously on the adjustable control. The method according to any one of items 332 to 337.
[Item 339]
In response to receiving the first gesture,
Focus on the location of the first gesture according to the determination that the first gesture was not aimed at at least one of the plurality of zooming affordances and was directed to the first part of the expression. To configure the electronic device,
328. The method of any one of items 328 to 338, further comprising.
[Item 340]
In response to receiving the first gesture,
Focus on the location of the first gesture according to the determination that the first gesture was not aimed at at least one of the plurality of zooming affordances and was directed to a second part of the expression. To stop configuring the electronic device,
The method according to any one of items 328 to 339, further comprising.
[Item 341]
The second representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of the first camera of the one or more cameras.
The third representation of at least the portion of the field of view of the one or more cameras is a representation of at least a portion of the field of view of the second camera of the one or more cameras.
The first camera is different from the second camera,
The method according to any one of items 328 to 340.
[Item 342]
At the second zoom level, displaying the second representation of at least the portion of the field of view of the one or more cameras can be displayed.
According to the determination that the second zoom level is the sixth zoom level, a part of the second expression is displayed in the first visual appearance.
According to the determination that the second zoom level is a seventh zoom level different from the sixth zoom level, a part of the second expression is made into a second visual appearance different from the first visual appearance. To display with
328. The method according to any one of items 328 to 341.
[Item 343]
The plurality of zoom affordances include a third zoom affordance.
The above method further
Receiving a request to change the zoom level of the second currently displayed representation and
In response to receiving a request to change the zoom level of the second currently displayed representation to an eighth zoom level,
According to the determination that the eighth zoom level is within the first zoom value range, the display of the first zoom affordance is replaced with the display of the fourth zoom affordance corresponding to the eighth zoom level. ,
Replacing the display of the second zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level according to the determination that the eighth zoom level is within the second zoom value range. When,
Replacing the display of the third zoom affordance with the display of the fourth zoom affordance corresponding to the eighth zoom level according to the determination that the eighth zoom level is within the third zoom value range. When,
328. The method according to any one of items 328 to 342.
[Item 344]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium comprising instructions for the program to perform the method according to any one of items 328-343.
[Item 345]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 328-343. Instructions to perform the method described in
Including electronic devices.
[Item 346]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of items 328 to 343, and
Equipped with an electronic device.
[Item 347]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. A non-temporary computer-readable storage medium that includes instructions for displaying a third representation of at least a portion of the camera's field of view.
[Item 348]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Through the display device, the camera user interface is to display a camera user interface that includes a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level. Displaying a camera user interface that includes a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
Receiving a first gesture directed to one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Displaying a second representation of at least a portion of the field of view of the one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. To display a third representation of at least a portion of the camera's field of view,
Electronic devices, including instructions for.
[Item 349]
It ’s an electronic device,
Display device and
With one or more cameras
A means of displaying a camera user interface, including a first representation of at least a portion of the field of view of the one or more cameras displayed at a first zoom level, via the display device. A means of displaying a camera user interface, comprising a plurality of zooming, wherein the plurality of zoom affordances include a first zoom affordance and a second zoom affordance.
A means of receiving a first gesture directed at one of the plurality of affordances while displaying the plurality of zooming affordances.
In response to receiving the first gesture,
Means for displaying a second representation of at least a portion of the field of view of one or more cameras at a second zoom level according to the determination that the first gesture is a gesture directed to the first zoom affordance. When,
According to the determination that the first gesture is a gesture directed to the second zoom affordance, one or more of the first zoom level and a third zoom level different from the second zoom level. A means of displaying a third representation of at least a portion of the camera's field of view,
Equipped with an electronic device.
[Item 350]
It's a method
An electronic device that has a display device and one or more cameras.
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. ,
Including methods.
[Item 351]
The method of
[Item 352]
The method of
[Item 353]
The first set of camera setting affordances is one of flash setting affordance, image capture setting affordance, aspect ratio camera setting affordance, filter setting camera setting affordance, high dynamic range imaging camera setting affordance, and low light camera setting affordance. The method of any one of items 350-352, comprising one or more.
[Item 354]
Detecting the first gesture comprises detecting a first contact directed at the camera user interface, the method further comprising.
Detecting the completion of the first gesture while detecting the first gesture and before detecting the lift-off of the first contact.
Any one of items 350-353, comprising providing a tactile output in response to detecting the completion of the first gesture before detecting the lift-off of the first contact. The method described in.
[Item 355]
Detecting a third gesture directed at the camera user interface while displaying the camera user interface.
In response to detecting the third gesture directed at the camera user interface,
According to the determination that the second set of camera setting affordances was displayed when the third gesture was detected.
Configuring the electronic device to capture media in a third camera mode,
Displaying a third set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras.
According to the determination that the first plurality of camera mode affordances were displayed when the third gesture was detected.
A second plurality of camera modes indicating different camera operating modes of the camera at the first location without displaying the second set of camera setting affordances and the third set of camera setting affordances. The second plurality of camera affordances include displaying the affordances and configuring the electronic device to capture media in the first camera mode and the third camera mode. Different from the first multiple camera mode affordances,
The method according to any one of
[Item 356]
Displaying the third set of camera setting affordances at the first location displays an animation of the third set of camera setting affordances that replaces the first set of camera setting affordances. The method according to
[Item 357]
The representation of the field of view of the one or more cameras is the first representation of the first portion of the field of view of the one or more cameras.
In response to receiving the second gesture directed at the camera user interface,
Displaying a second representation of a second portion of the field of view of one or more cameras according to the determination that the electronic device is configured to capture media through a first type of camera. The method according to any one of
[Item 358]
The representation of the field of view of the one or more cameras is a third representation of the third portion of the field of view of the one or more cameras.
In response to receiving the second gesture directed at the camera user interface,
Displaying a fourth representation of a fourth portion of the field of view of one or more cameras according to the determination that the electronic device is configured to capture media using a second type of camera. The fourth portion of the field of view of the one or more cameras includes a portion of the field of view of the one or more cameras that is not in the third portion of the field of view of the one or more cameras. The method according to any one of
[Item 359]
The representation of the field of view of the one or more cameras is the fifth representation of the fifth portion of the field of view of the one or more cameras.
The fifth expression is displayed in a second place on the display.
The above method further
In response to receiving the second gesture directed at the camera user interface,
According to the determination that the electronic device is configured to capture media using a third type of camera.
Moving the fifth expression from the second location on the display to the third location on the display.
357 or 358 of the method according to
[Item 360]
The first camera mode is a portrait mode.
The representation of the field of view of one or more cameras is displayed at the first zoom level.
The above method further
While displaying the first plurality of camera mode affordances,
Displaying affordances and zoom affordances that control lighting effect behavior,
Receiving a fourth gesture directed at the zoom affordance while displaying the zoom affordance, and
Displaying the representation of the field of view of one or more cameras at a second zoom level in response to receiving the fourth gesture directed to the zoom affordance.
The method according to any one of
[Item 361]
The first plurality of camera mode affordances
When selected, a first camera mode affordance that causes the electronic device to capture the media in the first camera mode in response to a request to capture the media.
When selected, any one of items 350-360, comprising a second camera mode affordance, which causes the electronic device to capture the media in the second camera mode in response to a request to capture the media. The method described in.
[Item 362]
361. The method of item 361, wherein the first camera mode affordance is displayed adjacent to the second camera mode affordance while displaying the first plurality of camera mode affordances.
[Item 363]
The first camera mode affordance is the first camera mode affordance before detecting the first gesture directed at the camera user interface and while displaying the first plurality of camera mode affordances. 361. The method of item 361 or 362, which is displayed with an indication that the camera mode is active.
[Item 364]
Detecting a fifth gesture directed at the camera interface while displaying the second set of camera setting affordances at the first location.
In response to detecting the fifth gesture directed at the camera interface,
Including displaying a third plurality of camera mode affordances indicating different camera operating modes of the camera.
The third plurality of camera mode affordances include the second mode affordance.
The second camera mode affordance is displayed with an indication that the second camera mode is active.
362 or 363, further comprising.
[Item 365]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device and one or more cameras, said one or more. A non-temporary computer-readable storage medium, wherein the program comprises instructions to perform the method according to any one of
[Item 366]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of
[Item 367]
It ’s an electronic device,
Display device and
With one or more cameras
Means for performing the method according to any one of
Equipped with an electronic device.
[Item 368]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device with a display device and one or more cameras, said one or more. Program,
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. A non-temporary computer-readable storage medium that contains instructions for.
[Item 369]
It ’s an electronic device,
Display device and
With one or more cameras
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Displaying the camera user interface via the display device.
A camera display area that contains a representation of the field of view of one or more cameras,
Displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the first gesture directed at the camera user interface,
The first set of camera setting affordances is displayed at the first location, and the first set of camera setting affordances is a setting for adjusting the image capture of the first camera mode. Displaying the first set of camera setting affordances,
Stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location, and
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. Receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
To configure the electronic device to capture media in a second camera mode different from the first camera mode.
Displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. , And
Including electronic devices.
[Item 370]
It ’s an electronic device,
Display device and
With one or more cameras
A means for displaying a camera user interface via the display device, wherein the camera user interface is
A camera display area that contains a representation of the field of view of one or more cameras,
A means of displaying a camera user interface, including a camera control area including a first plurality of camera mode affordances indicating different operating modes of the one or more cameras in a first location.
Means for detecting a first gesture directed at the camera user interface while displaying the first plurality of camera mode affordances indicating different operating modes of the one or more cameras.
In response to detecting the third gesture directed at the camera user interface,
A means of displaying a first set of camera setting affordances at the first location, wherein the first set of camera setting affordances is a setting that adjusts image capture in the first camera mode. A means of displaying the first set of camera setting affordances,
A means of stopping the display of the plurality of camera mode affordances indicating different operating modes of the camera at the first location.
While displaying the first set of camera configuration affordances at the first location, and while the electronic device is configured to capture media in the first camera mode, said. A means of receiving a second gesture directed at the camera user interface,
In response to receiving the second gesture directed at the camera user interface,
A means of configuring the electronic device to capture media in a second camera mode different from the first camera mode.
A means of displaying a second set of camera setting affordances at the first location without displaying the plurality of camera mode affordances indicating different operating modes of the one or more cameras at the first location. ,
Equipped with an electronic device.
[Item 371]
It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
Including methods.
[Item 372]
The camera user interface is to display the camera user interface through the display device prior to receiving the request to display the representation of the media item.
A first region that includes a representation of said first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras is the first. Displaying a camera user interface, including a second area, which is visually distinguishable from the representation of the portion.
371.
[Item 373]
Displaying a first correction affordance indicating that the automatic adjustment has been applied to the previously captured media item in accordance with the determination that the automatic media correction criteria have been met.
Displaying a second correction affordance, the second auto-adjustment affordance indicating that the auto-adjustment was not applied to the previously captured media item, according to the determination that the auto-media correction criteria are not met. The second auto-adjustment affordance is visually different from the first auto-adjustment affordance.
371 or 372, further comprising.
[Item 374]
Display the first auto-adjustment affordance and, through the display device, display the representation of the previously captured media item, including the combination of the first content and the second content. While receiving the first input corresponding to the selection of the first auto-adjustment affordance,
In response to receiving the first input corresponding to the selection of the first auto-adjustment affordance, the first content is included and the second content is not included via the display device. To display said representations of previously captured media items,
373. The method of item 373.
[Item 375]
Display the second auto-adjustment affordance and, through the display device, display the representation of the previously captured media item that includes the first content and does not contain the second content. While receiving a second input corresponding to the selection of the second auto-adjustment affordance,
The said including the first content and the combination of the second content via the display device in response to receiving the second input corresponding to the selection of the second auto-adjusting affordance. To display the above representation of a previously captured media item,
373. The method of item 373.
[Item 376]
The previously captured media item is an image
The representation of the previously captured media item, including the first content and the combination of the second content, comprises an edge portion.
The representation of a previously captured media item that includes the first content and does not include the second content further comprises any one of items 371 to 375 that does not include the edge portion. The method described.
[Item 377]
The previously captured media item is a video
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a first amount of movement.
The representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
The method according to any one of items 371 to 376.
[Item 378]
The previously captured media item contains an identifiable object and contains
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a portion of the identifiable object.
That the representation of the previously captured media item that includes the first content and does not include the second content does not include the portion of the identifiable object.
371. The method according to any one of items 371 to 377.
[Item 379]
The automatic media correction criterion is one or more visuals in which the previously captured media item can be corrected using the second content from the second portion of the field of view of the one or more cameras. 371. The method of any one of items 371 to 378, comprising a second criterion that is satisfied if it is determined to include an aspect.
[Item 380]
379. The method of item 379, wherein the automatic media correction criterion comprises a third criterion in which the second criterion is met before the previously captured media is displayed.
[Item 381]
The first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with the determination that the automatic media correction criteria are met. At the same time as said representation of the previously captured media item containing the combination of, the electronic device displays a third correction affordance that causes the electronic device to perform the first action.
371. The method of any one of items 371 to 380, further comprising.
[Item 382]
371. The method of any one of items 371 to 381, wherein the automatic media correction criteria are met when the auto-apply setting is enabled and not met when the auto-apply setting is disabled.
[Item 383]
The method according to any one of items 371 to 382, wherein the automatic application setting is a user-configurable setting.
[Item 384]
In response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met.
According to the determination that the first set of criteria is met, it is selected at the same time as the representation of the previously captured media item that includes the first content and does not contain the second content. To display the fourth correction affordance that causes the electronic device to perform the second operation.
371. The method according to any one of items 371 to 383.
[Item 385]
In response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met.
According to the determination that the first set of criteria is not met, the previously captured media item containing the first content and not containing the second content is not selected at the same time as the representation. Displaying a possible indicator,
The method according to any one of items 371 to 384, further comprising.
[Item 386]
In response to receiving the request to display the representation of the previously captured media item,
Displaying the content processing indicator according to the judgment that the content processing criteria are met, and
To stop displaying the content processing indicator according to the determination that the content processing criteria are not met,
The method according to any one of items 371 to 385, further comprising.
[Item 387]
Stopping the display of the content processing indicator while displaying the content processing indicator and in accordance with the determination that the content processing criteria are no longer met.
386. The method of
[Item 388]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, and According to the determination that the content processing criteria are no longer met, the representation of the previously captured media item that includes the first content and does not include the second content is expressed in the first content and. Replacing with said representation of the previously captured media item containing the second content combination.
386. The method of
[Item 389]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, said Displaying a second representation of the previously captured media item that includes the first content and does not include the second content.
While displaying said said second depiction of said previously captured media item containing said first content and not containing said second content, and said content processing criteria no longer. According to the determination that it is not satisfied, the second representation of the previously captured media item containing the first content and not containing the second content is referred to as the first content and the second. Replacing with a second representation of the previously captured media item containing a combination of content in
386. The method of
[Item 390]
The said including the combination of the first content and the second content while displaying the representation of the previously captured media item containing the first content and the combination of the second content. Displaying an animation of the representation of a previously captured media item and transitioning to the representation of a previously captured media item that includes the first content and does not include the second content. When,
371. The method of any one of items 371 to 389, further comprising.
[Item 391]
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, the first content and the second content are included. Displaying an animation of the representation of the previously captured media item that does not include, and transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content. That and
371. The method of any one of items 371 to 390, further comprising.
[Item 392]
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and including a third content from said first portion of the field of view of one or more cameras and from said second portion of said view of one or more cameras. Receiving a request to display a representation of a media item that does not contain the fourth content of
The third content from the first portion of the field of view of the one or more cameras and not including the fourth content from the second portion of the field of view of the one or more cameras. In response to receiving the request to display said representation of a previously captured media item, additional media content outside of said first portion of said field of view of said one or more cameras is available. Stopping displaying the indication that there is,
371. The method according to any one of items 371 to 391.
[Item 393]
A non-temporary computer-readable storage medium that stores one or more programs configured to be performed by one or more processors of an electronic device comprising a display device, wherein the one or more programs are from item 371. A non-temporary computer-readable storage medium comprising an instruction to perform the method according to any one of 392.
[Item 394]
It ’s an electronic device,
Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs is any one of items 371 to 392. Instructions to perform the method described in
Including electronic devices.
[Item 395]
It ’s an electronic device,
Display device and
Means for performing the method according to any one of items 371 to 392, and
Equipped with an electronic device.
[Item 396]
A non-temporary computer-readable storage medium that stores one or more programs configured to be executed by one or more processors of an electronic device comprising a display device.
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. A non-temporary computer-readable storage medium that contains instructions for that.
[Item 397]
It ’s an electronic device,
Display device and
With one or more processors
A memory that stores one or more programs configured to be executed by the one or more processors.
An electronic device comprising one or more of the above-mentioned programs.
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met, the representation of the previously captured media item, including the combination of the first content and the second content, is displayed via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That, the command,
Including electronic devices.
[Item 398]
It ’s an electronic device,
Display device and
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. A means of receiving a request to display an expression,
In response to receiving the request to display the representation of the previously captured media item,
As a means of displaying a representation of the previously captured media item, including the combination of the first content and the second content, via the display device, according to the determination that the automatic media correction criteria are met. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. Means and
Including electronic devices.
[Item 399]
The adjustable control that selects the time-based representation of the first visual media corresponding to each time is displayed at each location on the display device.
The method according to any one of items 219 to 232.
Claims (23)
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、
前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動調整が前記以前にキャプチャされたメディアアイテムに適用されたことを示す第1の自動調整アフォーダンスを表示することと、
自動メディア補正基準が満たされていないという判定に従って、
前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動調整が前記以前にキャプチャされたメディアアイテムに適用されていないことを示す第2の自動調整アフォーダンスを表示することであって、前記第2の自動調整アフォーダンスは、前記第1の自動調整アフォーダンスとは視覚的に異なる、表示することと、
を含む、方法。 It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
According to the determination that the automatic media correction criteria are met
Displaying, through the display device, a representation of the previously captured media item, including the combination of the first content and the second content.
To display a first auto-adjustment affordance indicating that the auto-adjustment has been applied to the previously captured media item.
According to the determination that the automatic media correction criteria are not met
To display, through the display device, a representation of the previously captured media item that includes the first content and does not include the second content.
Displaying a second auto-adjustment affordance indicating that the auto-adjustment has not been applied to the previously captured media item, wherein the second auto-adjustment affordance is the first auto-adjustment affordance. Visually different from displaying and
Including methods.
前記1つ以上のカメラの視野の前記第1の部分の表現を含む第1の領域と、
前記1つ以上のカメラの前記視野の第2の部分の表現を含む第2の領域であって、前記1つ以上のカメラの前記視野の前記第2の部分の前記表現が、前記第1の部分の前記表現と視覚的に区別される、第2の領域と、を含む、カメラユーザインタフェースを表示することと、
を更に含む、請求項1に記載の方法。 The camera user interface is to display the camera user interface through the display device prior to receiving the request to display the representation of the previously captured media item.
A first region that includes a representation of said first portion of the field of view of one or more cameras.
A second region comprising a representation of a second portion of the field of view of the one or more cameras, wherein the representation of the second portion of the field of view of the one or more cameras is the first. Displaying a camera user interface, including a second area, which is visually distinguishable from the representation of the portion.
The method according to claim 1, further comprising.
前記第1の自動調整アフォーダンスの選択に対応する前記第1の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項1又は2に記載の方法。 Display the first auto-adjustment affordance and, through the display device, display the representation of the previously captured media item, including the combination of the first content and the second content. While receiving the first input corresponding to the selection of the first auto-adjustment affordance,
In response to receiving the first input corresponding to the selection of the first auto-adjustment affordance, the first content is included and the second content is not included via the display device. To display said representations of previously captured media items,
The method according to claim 1 or 2, further comprising.
前記第2の自動調整アフォーダンスの選択に対応する前記第2の入力を受信したことに応答して、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現を表示することと、
を更に含む、請求項1から3のいずれか一項に記載の方法。 Display the second auto-adjustment affordance and, through the display device, display the representation of the previously captured media item that includes the first content and does not contain the second content. While receiving a second input corresponding to the selection of the second auto-adjustment affordance,
The said including the first content and the combination of the second content via the display device in response to receiving the second input corresponding to the selection of the second auto-adjusting affordance. To display the above representation of a previously captured media item,
The method according to any one of claims 1 to 3, further comprising.
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、縁部部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、更に、前記縁部部分を含まない、請求項1から4のいずれか一項に記載の方法。 The previously captured media item is an image
The representation of the previously captured media item, including the first content and the combination of the second content, comprises an edge portion.
Any one of claims 1 to 4, wherein the representation of the previously captured media item that includes the first content and does not include the second content further does not include the edge portion. The method described in.
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、第1の量の移動を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記第1の量の移動とは異なる第2の量の移動を含む、
請求項1から5のいずれか一項に記載の方法。 The previously captured media item is a video
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a first amount of movement.
The representation of the previously captured media item that includes the first content and does not include the second content includes a second amount of movement that is different from the first amount of movement.
The method according to any one of claims 1 to 5.
前記第1のコンテンツ及び前記第2のコンテンツの前記組み合わせを含む前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの一部分を含み、
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現が、前記識別可能なオブジェクトの前記一部分を含まない、こと、
を含む、請求項1から6のいずれか一項に記載の方法。 The previously captured media item contains an identifiable object and contains
The representation of the previously captured media item, including the first content and the combination of the second content, comprises a portion of the identifiable object.
Includes the first content, and the representation of media items said previously captured not including the second content does not include the first portion of the identifiable objects, it,
The method according to any one of claims 1 to 6, wherein the method comprises.
を更に含む、請求項1から7のいずれか一項に記載の方法。 The first content and the second content in response to receiving the request to display the representation of the previously captured media item and in accordance with the determination that the automatic media correction criteria are met. At the same time as said representation of the previously captured media item containing the combination of, the electronic device displays a third auto-adjustment affordance that causes the electronic device to perform the first action.
The method according to any one of claims 1 to 7, further comprising.
を更に含む、請求項1から10のいずれか一項に記載の方法。 The said including the combination of the first content and the second content while displaying the representation of the previously captured media item containing the first content and the combination of the second content. Displaying an animation of the representation of a previously captured media item and transitioning to the representation of a previously captured media item that includes the first content and does not include the second content. When,
The method according to any one of claims 1 to 10, further comprising.
を更に含む、請求項1から11のいずれか一項に記載の方法。 While displaying the representation of the previously captured media item that includes the first content and does not include the second content, the first content and the second content are included. Displaying an animation of the representation of the previously captured media item that does not include, and transitioning to the representation of the previously captured media item that includes a combination of the first content and the second content. That and
The method according to any one of claims 1 to 11, further comprising.
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
前記以前にキャプチャされたメディアアイテムが前記1つ以上のカメラの視野の前記第2の部分からの前記第2のコンテンツを使用して補正され得る1つ以上の視覚アスペクトを含むと判定されると満たされる第1の基準を含む自動メディア補正基準が満たされるという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
前記自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
を含む、方法。 It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
It is determined that the previously captured media item contains one or more visual aspects that can be corrected using the second content from the second portion of the field of view of the one or more cameras. According to the determination that the automatic media correction criteria including the first criterion to be met are met, the previously captured media item containing the combination of the first content and the second content via the display device. Displaying expressions and
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. To do and
Including methods.
請求項13に記載の方法。 The automatic media correction criterion includes a second criterion that is satisfied if the first criterion is met before the previously captured media is displayed.
13. The method of claim 13.
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
第1の1組の基準が満たされているという判定に従って、第1の1組の基準が満たされているという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現と同時に、選択されると、前記電子デバイスに、第2の動作を行わせる自動調整アフォーダンスを表示すること、
を含む、方法。 It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
According to the determination that the first set of criteria is satisfied, and according to the determination that the first set of criteria is satisfied, the first content is included and the second content is not included. At the same time as the representation of a previously captured media item, the electronic device, when selected, displays an auto-adjustment affordance that causes the electronic device to perform a second action.
Including methods.
を更に含む、
請求項15に記載の方法。 The first set of criteria is met in response to receiving the request to display said representation of the previously captured media item, and according to the determination that the automatic media correction criteria are not met. Displaying a non-selectable indicator at the same time as the representation of the previously captured media item that includes the first content and does not include the second content, according to the determination that it does not.
Including,
15. The method of claim 15.
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
コンテンツ処理基準が満たされているという判定に従って、コンテンツ処理インジケータを表示することと、
前記コンテンツ処理基準が満たされていないという判定に従って、前記コンテンツ処理インジケータを表示するのをやめることと、
を含む、方法。 It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the judgment of the automatic media correction criteria are not met, through the display device, the viewing including the first content, and a representation of media items said previously captured without the second content To display and
Displaying the content processing indicator according to the judgment that the content processing criteria are met, and
To stop displaying the content processing indicator according to the determination that the content processing criteria are not met,
Including methods.
を更に含む、
請求項17に記載の方法。 Stopping the display of the content processing indicator while displaying the content processing indicator and according to the determination that the content processing criteria are no longer met.
Including,
17. The method of claim 17.
を更に含む、
請求項17又は18に記載の方法。 While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, and According to the determination that the content processing criteria are no longer met, the representation of the previously captured media item that includes the first content and does not include the second content is expressed in the first content and. Replacing with said representation of the previously captured media item containing the second content combination.
Including,
The method according to claim 17 or 18.
前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示している間に、及び前記コンテンツ処理基準がもはや満たされていないという判定に従って、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記第2の表現を、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの第2の表現に置き換えることと、
を更に含む、
請求項17から19のいずれか一項に記載の方法。 While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and while displaying the content processing indicator, said Displaying a second representation of the previously captured media item that includes the first content and does not include the second content.
While displaying the representation of the previously captured media item that includes the first content and does not include the second content, and according to the determination that the content processing criteria are no longer met. The second representation of the previously captured media item that includes the first content and does not include the second content, including the combination of the first content and the second content. Replacing with a second representation of a previously captured media item,
Including,
The method according to any one of claims 17 to 19.
表示デバイスを有する電子デバイスで、
1つ以上のカメラの視野の第1の部分からの第1のコンテンツ及び前記1つ以上のカメラの前記視野の第2の部分からの第2のコンテンツを含む、以前にキャプチャされたメディアアイテムの表現を表示する要求を受信することと、
前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、
自動メディア補正基準が満たされているという判定に従って、前記表示デバイスを介して、前記第1のコンテンツ及び前記第2のコンテンツの組み合わせを含む前記以前にキャプチャされたメディアアイテムの表現を表示することと、
自動メディア補正基準が満たされていないという判定に従って、前記表示デバイスを介して、前記第1のコンテンツを含み、かつ前記第2のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの表現を表示することと、
1つ以上のカメラの視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まないメディアアイテムの表現を表示する要求を受信することと、
前記1つ以上のカメラの前記視野の前記第1の部分からの第3のコンテンツを含み、かつ前記1つ以上のカメラの前記視野の前記第2の部分からの第4のコンテンツを含まない前記以前にキャプチャされたメディアアイテムの前記表現を表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記第1の部分の外側の追加のメディアコンテンツが利用可能であるというインジケーションを表示するのをやめることと、
を含む、方法。 It's a method
An electronic device that has a display device
Of previously captured media items, including first content from a first portion of the field of view of one or more cameras and second content from a second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
In response to receiving the request to display the representation of the previously captured media item,
Following the determination that the automatic media correction criteria are met, the display of the previously captured representation of the previously captured media item, including the combination of the first content and the second content, via the display device. ,
According to the determination that the automatic media correction criterion is not met, the representation of the previously captured media item containing the first content and not containing the second content is displayed via the display device. That and
A media item that includes a third content from the first portion of the field of view of one or more cameras and does not include a fourth content from the second portion of the field of view of the one or more cameras. Receiving a request to display a representation and
The third content from the first portion of the field of view of the one or more cameras and not including the fourth content from the second portion of the field of view of the one or more cameras. In response to receiving the request to display said representation of a previously captured media item, additional media content outside of said first portion of said field of view of said one or more cameras is available. Stopping displaying the indication that there is,
Including methods.
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって行われるように構成された1つ以上のプログラムを記憶するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムが、前記1つ以上のプロセッサに、請求項1から21のいずれか一項に記載の方法を実行させる、
電子デバイス。 Display device and
With one or more processors
An electronic device comprising a memory for storing one or more programs configured to be performed by the one or more processors, wherein the one or more programs charge the one or more processors. The method according to any one of items 1 to 21 is executed.
Electronic device.
Applications Claiming Priority (35)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962844110P | 2019-05-06 | 2019-05-06 | |
US62/844,110 | 2019-05-06 | ||
US201962856036P | 2019-06-01 | 2019-06-01 | |
US62/856,036 | 2019-06-01 | ||
US201962897968P | 2019-09-09 | 2019-09-09 | |
US62/897,968 | 2019-09-09 | ||
US16/583,020 | 2019-09-25 | ||
US16/582,595 US10674072B1 (en) | 2019-05-06 | 2019-09-25 | User interfaces for capturing and managing visual media |
US16/582,595 | 2019-09-25 | ||
US16/583,020 US10645294B1 (en) | 2019-05-06 | 2019-09-25 | User interfaces for capturing and managing visual media |
US16/584,044 | 2019-09-26 | ||
US16/584,044 US10735642B1 (en) | 2019-05-06 | 2019-09-26 | User interfaces for capturing and managing visual media |
DKPA201970601A DK180452B1 (en) | 2019-05-06 | 2019-09-26 | USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA |
DKPA201970595 | 2019-09-26 | ||
DKPA201970593A DK180685B1 (en) | 2019-05-06 | 2019-09-26 | USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA |
US16/584,100 | 2019-09-26 | ||
DKPA201970593 | 2019-09-26 | ||
DKPA201970600 | 2019-09-26 | ||
DKPA201970592 | 2019-09-26 | ||
US16/584,693 | 2019-09-26 | ||
DKPA201970592A DK201970592A1 (en) | 2019-05-06 | 2019-09-26 | User interfaces for capturing and managing visual media |
DKPA201970603A DK180679B1 (en) | 2019-05-06 | 2019-09-26 | USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA |
US16/584,693 US10791273B1 (en) | 2019-05-06 | 2019-09-26 | User interfaces for capturing and managing visual media |
DKPA201970600 | 2019-09-26 | ||
DKPA201970601 | 2019-09-26 | ||
DKPA201970603 | 2019-09-26 | ||
DKPA201970595 | 2019-09-26 | ||
US16/584,100 US10735643B1 (en) | 2019-05-06 | 2019-09-26 | User interfaces for capturing and managing visual media |
US16/586,344 US10652470B1 (en) | 2019-05-06 | 2019-09-27 | User interfaces for capturing and managing visual media |
DKPA201970605 | 2019-09-27 | ||
US16/586,314 | 2019-09-27 | ||
US16/586,314 US10681282B1 (en) | 2019-05-06 | 2019-09-27 | User interfaces for capturing and managing visual media |
US16/586,344 | 2019-09-27 | ||
DKPA201970605 | 2019-09-27 | ||
JP2020070418A JP6854049B2 (en) | 2019-05-06 | 2020-04-09 | User interface for capturing and managing visual media |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070418A Division JP6854049B2 (en) | 2019-05-06 | 2020-04-09 | User interface for capturing and managing visual media |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021051752A JP2021051752A (en) | 2021-04-01 |
JP6924319B2 true JP6924319B2 (en) | 2021-08-25 |
Family
ID=74688824
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070418A Active JP6854049B2 (en) | 2019-05-06 | 2020-04-09 | User interface for capturing and managing visual media |
JP2021565919A Active JP7171947B2 (en) | 2019-05-06 | 2020-05-06 | User interface for capturing and managing visual media |
JP2020184470A Active JP6924886B2 (en) | 2019-05-06 | 2020-11-04 | User interface for capturing and managing visual media |
JP2020184471A Active JP6924319B2 (en) | 2019-05-06 | 2020-11-04 | User interface for capturing and managing visual media |
JP2021051385A Active JP6929478B2 (en) | 2019-05-06 | 2021-03-25 | User interface for capturing and managing visual media |
JP2022145387A Active JP7467553B2 (en) | 2019-05-06 | 2022-09-13 | User interface for capturing and managing visual media |
JP2024060293A Pending JP2024105236A (en) | 2019-05-06 | 2024-04-03 | User interface for capturing and managing visual media |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070418A Active JP6854049B2 (en) | 2019-05-06 | 2020-04-09 | User interface for capturing and managing visual media |
JP2021565919A Active JP7171947B2 (en) | 2019-05-06 | 2020-05-06 | User interface for capturing and managing visual media |
JP2020184470A Active JP6924886B2 (en) | 2019-05-06 | 2020-11-04 | User interface for capturing and managing visual media |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021051385A Active JP6929478B2 (en) | 2019-05-06 | 2021-03-25 | User interface for capturing and managing visual media |
JP2022145387A Active JP7467553B2 (en) | 2019-05-06 | 2022-09-13 | User interface for capturing and managing visual media |
JP2024060293A Pending JP2024105236A (en) | 2019-05-06 | 2024-04-03 | User interface for capturing and managing visual media |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3966676A2 (en) |
JP (7) | JP6854049B2 (en) |
KR (4) | KR20230015526A (en) |
CN (3) | CN112887586B (en) |
AU (4) | AU2022200966B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117015976A (en) * | 2021-03-26 | 2023-11-07 | 索尼集团公司 | Imaging apparatus, imaging apparatus control method, and program |
CN115131222A (en) * | 2021-03-29 | 2022-09-30 | 华为技术有限公司 | Image processing method and related equipment |
US20240314426A1 (en) * | 2021-12-10 | 2024-09-19 | Petnow Inc. | Electronic apparatus for obtaining biometric information of companion animal, and operation method thereof |
KR102623605B1 (en) * | 2021-12-10 | 2024-01-11 | 주식회사 펫나우 | Electornic device for acquiring biometric information of and operating method thereof |
CN116437193A (en) * | 2021-12-31 | 2023-07-14 | 荣耀终端有限公司 | Electronic equipment control method and electronic equipment |
CN114615480B (en) * | 2022-03-11 | 2024-07-02 | 峰米(重庆)创新科技有限公司 | Projection screen adjustment method, apparatus, device, storage medium, and program product |
CN116939354A (en) * | 2022-03-30 | 2023-10-24 | 北京字跳网络技术有限公司 | Camera function page switching method and device, electronic equipment and storage medium |
CN115100839B (en) * | 2022-07-27 | 2022-11-01 | 苏州琅日晴传媒科技有限公司 | Monitoring video measured data analysis safety early warning system |
CN117768772A (en) * | 2022-09-16 | 2024-03-26 | 荣耀终端有限公司 | Interaction method and device of camera application interface |
CN115470153B (en) * | 2022-11-14 | 2023-03-24 | 成都安易迅科技有限公司 | Method, system and equipment for evaluating stability fluency of UI (user interface) of intelligent terminal system |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5557358A (en) * | 1991-10-11 | 1996-09-17 | Minolta Camera Kabushiki Kaisha | Camera having an electronic viewfinder for displaying an object image under different photographic conditions |
JP4342926B2 (en) * | 2003-12-24 | 2009-10-14 | 三菱電機株式会社 | Image input method and image input apparatus |
JP4446787B2 (en) | 2004-04-21 | 2010-04-07 | 富士フイルム株式会社 | Imaging apparatus and display control method |
JP2006332809A (en) | 2005-05-23 | 2006-12-07 | Fujifilm Holdings Corp | Imaging apparatus |
JP4483841B2 (en) * | 2006-09-06 | 2010-06-16 | カシオ計算機株式会社 | Imaging device |
JP2008116823A (en) | 2006-11-07 | 2008-05-22 | Nikon Corp | Camera |
JP5039786B2 (en) | 2007-07-23 | 2012-10-03 | パナソニック株式会社 | Imaging device |
JP2009246468A (en) | 2008-03-28 | 2009-10-22 | Fujifilm Corp | Photographing device and control method of photographing device |
JP4980982B2 (en) | 2008-05-09 | 2012-07-18 | 富士フイルム株式会社 | Imaging apparatus, imaging method, focus control method, and program |
JP5262928B2 (en) | 2009-02-13 | 2013-08-14 | 富士通株式会社 | Imaging device, portable terminal device, and focusing mechanism control method |
JP4870218B2 (en) * | 2010-02-26 | 2012-02-08 | オリンパス株式会社 | Imaging device |
US8885978B2 (en) * | 2010-07-05 | 2014-11-11 | Apple Inc. | Operating a device to capture high dynamic range images |
KR101700363B1 (en) * | 2010-09-08 | 2017-01-26 | 삼성전자주식회사 | Digital photographing apparatus and method for controlling the same |
KR101674959B1 (en) | 2010-11-02 | 2016-11-10 | 엘지전자 주식회사 | Mobile terminal and Method for controlling photographing image thereof |
KR101710631B1 (en) | 2010-12-23 | 2017-03-08 | 삼성전자주식회사 | Digital image photographing apparatus and method for controlling the same |
JP5717453B2 (en) | 2011-01-14 | 2015-05-13 | キヤノン株式会社 | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
KR101984921B1 (en) * | 2012-10-18 | 2019-05-31 | 엘지전자 주식회사 | Method for operating a Mobile Terminal |
US9264630B2 (en) * | 2013-01-04 | 2016-02-16 | Nokia Technologies Oy | Method and apparatus for creating exposure effects using an optical image stabilizing device |
JP6034740B2 (en) * | 2013-04-18 | 2016-11-30 | オリンパス株式会社 | Imaging apparatus and imaging method |
KR20150014290A (en) * | 2013-07-29 | 2015-02-06 | 엘지전자 주식회사 | Image display device and operation method of the image display device |
US9712756B2 (en) | 2013-08-21 | 2017-07-18 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
JP6234151B2 (en) * | 2013-10-09 | 2017-11-22 | キヤノン株式会社 | Imaging device |
CN105829945B (en) * | 2013-10-18 | 2019-04-09 | 光实验室股份有限公司 | For implement and/or using camera device method and apparatus |
US10074158B2 (en) * | 2014-07-08 | 2018-09-11 | Qualcomm Incorporated | Systems and methods for stereo depth estimation using global minimization and depth interpolation |
KR102145542B1 (en) * | 2014-08-14 | 2020-08-18 | 삼성전자주식회사 | Image photographing apparatus, image photographing system for photographing using a plurality of image photographing apparatuses and methods for photographing image thereof |
JP3194297U (en) * | 2014-08-15 | 2014-11-13 | リープ モーション, インコーポレーテッドLeap Motion, Inc. | Motion sensing control device for automobile and industrial use |
JP2016066978A (en) * | 2014-09-26 | 2016-04-28 | キヤノンマーケティングジャパン株式会社 | Imaging device, and control method and program for the same |
US9712751B2 (en) * | 2015-01-22 | 2017-07-18 | Apple Inc. | Camera field of view effects based on device orientation and scene content |
US9979890B2 (en) * | 2015-04-23 | 2018-05-22 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US9652125B2 (en) * | 2015-06-18 | 2017-05-16 | Apple Inc. | Device, method, and graphical user interface for navigating media content |
JP6546474B2 (en) * | 2015-07-31 | 2019-07-17 | キヤノン株式会社 | Image pickup apparatus and control method thereof |
US10334154B2 (en) | 2015-08-31 | 2019-06-25 | Snap Inc. | Automated adjustment of digital image capture parameters |
WO2017051605A1 (en) | 2015-09-25 | 2017-03-30 | 富士フイルム株式会社 | Image capturing system and image capture control method |
KR20170123125A (en) * | 2016-04-28 | 2017-11-07 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US9854156B1 (en) * | 2016-06-12 | 2017-12-26 | Apple Inc. | User interface for camera effects |
KR102257353B1 (en) * | 2016-09-23 | 2021-06-01 | 애플 인크. | Image data for enhanced user interactions |
US10432874B2 (en) * | 2016-11-01 | 2019-10-01 | Snap Inc. | Systems and methods for fast video capture and sensor adjustment |
KR20180095331A (en) * | 2017-02-17 | 2018-08-27 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
CN108391053A (en) * | 2018-03-16 | 2018-08-10 | 维沃移动通信有限公司 | A kind of filming control method and terminal |
CN108668083B (en) * | 2018-07-24 | 2020-09-01 | 维沃移动通信有限公司 | Photographing method and terminal |
-
2020
- 2020-03-27 CN CN202011480411.7A patent/CN112887586B/en active Active
- 2020-04-09 JP JP2020070418A patent/JP6854049B2/en active Active
- 2020-05-06 KR KR1020237002360A patent/KR20230015526A/en not_active Application Discontinuation
- 2020-05-06 KR KR1020227023077A patent/KR102492067B1/en active IP Right Grant
- 2020-05-06 EP EP20728854.9A patent/EP3966676A2/en active Pending
- 2020-05-06 KR KR1020217036337A patent/KR102419105B1/en active IP Right Grant
- 2020-05-06 CN CN202080034605.6A patent/CN113811855A/en active Pending
- 2020-05-06 CN CN202211195323.1A patent/CN115658198A/en active Pending
- 2020-05-06 JP JP2021565919A patent/JP7171947B2/en active Active
- 2020-11-04 JP JP2020184470A patent/JP6924886B2/en active Active
- 2020-11-04 JP JP2020184471A patent/JP6924319B2/en active Active
-
2021
- 2021-02-18 KR KR1020210022053A patent/KR102368385B1/en active IP Right Grant
- 2021-03-25 JP JP2021051385A patent/JP6929478B2/en active Active
-
2022
- 2022-02-14 AU AU2022200966A patent/AU2022200966B2/en active Active
- 2022-04-11 AU AU2022202377A patent/AU2022202377B2/en active Active
- 2022-08-24 AU AU2022221466A patent/AU2022221466B2/en active Active
- 2022-09-13 JP JP2022145387A patent/JP7467553B2/en active Active
-
2023
- 2023-12-13 AU AU2023282230A patent/AU2023282230A1/en active Pending
-
2024
- 2024-04-03 JP JP2024060293A patent/JP2024105236A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022528011A (en) | 2022-06-07 |
JP2024105236A (en) | 2024-08-06 |
JP6854049B2 (en) | 2021-04-07 |
JP6924886B2 (en) | 2021-08-25 |
KR20230015526A (en) | 2023-01-31 |
KR102368385B1 (en) | 2022-02-25 |
JP2021108463A (en) | 2021-07-29 |
JP2022188060A (en) | 2022-12-20 |
AU2023282230A1 (en) | 2024-01-18 |
CN113811855A (en) | 2021-12-17 |
JP2021051751A (en) | 2021-04-01 |
KR20210145278A (en) | 2021-12-01 |
JP2021040300A (en) | 2021-03-11 |
KR102492067B1 (en) | 2023-01-26 |
JP6929478B2 (en) | 2021-09-01 |
CN112887586A (en) | 2021-06-01 |
CN112887586B (en) | 2022-05-10 |
JP7467553B2 (en) | 2024-04-15 |
AU2022200966A1 (en) | 2022-03-03 |
EP3966676A2 (en) | 2022-03-16 |
AU2022200966B2 (en) | 2022-03-10 |
JP7171947B2 (en) | 2022-11-15 |
AU2022202377A1 (en) | 2022-05-05 |
KR102419105B1 (en) | 2022-07-12 |
KR20210020987A (en) | 2021-02-24 |
CN115658198A (en) | 2023-01-31 |
JP2021051752A (en) | 2021-04-01 |
AU2022221466B2 (en) | 2023-09-14 |
AU2022202377B2 (en) | 2022-05-26 |
KR20220102664A (en) | 2022-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DK180685B1 (en) | USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA | |
EP3792738B1 (en) | User interfaces for capturing and managing visual media | |
JP6924319B2 (en) | User interface for capturing and managing visual media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201127 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201127 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210701 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6924319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |